Le poste est lié à l’évaluation de la sûreté et à l’assurance des systèmes basé IA (Intelligence Artificielle). Actuellement, pour un système n’utilisant pas des composants d’apprentissage automatique, la sûreté fonctionnelle est évaluée avant le déploiement du système et les résultats de cette évaluation sont compilés dans un dossier de sécurité qui reste valable pendant toute la durée de vie du système. Pour les nouveaux systèmes intégrant des composants d’IA, en particulier les systèmes auto-apprenants, une telle approche d’ingénierie et d’assurance n’est pas applicable car le système peut présenter un nouveau comportement face à des situations inconnues pendant son fonctionnement.
L’objectif du post-doc sera de définir une approche d’ingénierie pour effectuer une évaluation de la sûreté des systèmes basés IA. Un deuxième objectif est de définir les artefacts du dossier d’assurance (objectifs, preuves, etc.) pour obtenir et préserver une confiance justifiée dans la sûreté du système tout au long de sa durée de vie, en particulier pour les systèmes basés IA à apprentissage opérationnel. L’approche sera mise en œuvre dans un framework open-source qui sera évaluée sur des applications industrielles.
Le titulaire du poste rejoindra une équipe de recherche et développement dans un environnement très stimulant avec des opportunités uniques de développer un solide portefeuille technique et de recherche. Il devra collaborer avec des partenaires académiques et industriels, contribuer et gérer des projets nationaux et européens, préparer et soumettre du matériel scientifique pour publication, fournir des conseils aux doctorants.