Analyse in situ des dislocations en Dynamique Moléculaire

Grâce aux nouvelles architectures des supercalculateurs, les simulations de dynamique moléculaire classique (DM) entreront bientôt dans le domaine du millier de milliard d’atomes. Ces systèmes de simulation – de tailles inédites – seront ainsi capables de représenter la plasticité des métaux à l’échelle du micron. De telles simulations génèrent une quantité considérable de données et la difficulté réside désormais dans leur exploitation, afin d'en extraire les ingrédients statistiques pertinents pour l’échelle de la plasticité « mésoscopique » (échelle des modèles continus). L'évolution d'un matériau est complexe car elle dépend de lignes de défauts cristallins très étendues (les dislocations) dont l’évolution est régie par de nombreux mécanismes. Afin d'alimenter les modèles aux échelles supérieures, les grandeurs à extraire sont les vitesses et la longueur des dislocations, ainsi que leur évolution au cours du temps. L’extraction de ces données peut se faire par des techniques d'analyse spécifique a posteriori basées sur la caractérisation de l'environnement local ('distortion score' [goryaeva_2020], 'local deformation' [lafourcade_2018], ‘DXA’ [stukowski_2012], mais qui restent très couteuses et ne permettent pas de traitement in situ. Nous avons récemment développé une méthode robuste permettant d'identifier à la volée la structure cristalline [lafourcade_2023], qui sera bientôt étendue au cas de la classification des dislocations. L'objectif du stage post doctoral est le développement d'une chaîne d'analyse complète menant à l'identification in-situ des dislocations au sein des simulations atomistiques ainsi qu'à leur extraction sous forme nodale. La première étape de ce processus passe par la classification et l'identification des atomes voisins du coeur de la dislocation.

Développement d'approches pour l'intelligence artificielle à base de bruit

Les approches actuelles de l'IA sont largement basées sur la multiplication matricielle. Dans le de ce projet postdoccadre toral, nous aimerions poser la question suivante : quelle est la prochaine étape ? Plus précisément, nous aimerions étudier si le bruit (stochastique) pourrait être la primitive computationnelle sur laquelle la nouvelle génération d'IA est construite. Nous répondrons à cette question en deux étapes. Tout d'abord, nous explorerons les théories concernant le rôle computationnel du bruit microscopique et au niveau du système dans les neurosciences, ainsi que la façon dont le bruit est de plus en plus exploité dans l'intelligence artificielle. Nous visons à établir des liens concrets entre ces deux domaines et, en particulier, nous explorerons la relation entre le bruit et la quantification de l'incertitude.
Sur cette base, le chercheur postdoctorant développera ensuite de nouveaux modèles qui exploitent le bruit pour effectuer des tâches cognitives, dont l'incertitude est une composante intrinsèque. Cela ne servira pas seulement comme une approche d'IA, mais aussi comme un outil informatique pour étudier la cognition chez les humains et aussi comme un modèle pour des zones spécifiques du cerveau connues pour participer à divers aspects de la cognition, de la perception à l’apprentissage, la prise de décision et la quantification de l'incertitude.
Les perspectives du projet postdoctoral devraient informer sur la manière dont l'imagerie IRMf et les enregistrements électrophysiologies invasifs et non invasifs peuvent être utilisés pour tester les théories de ce modèle. En outre, le candidat devra interagir avec d'autres activités du CEA liées au développement d'accélérateurs d'IA analogiques basés sur le bruit.

Hybridation de LLMs pour l’ingénierie des exigences

Le développement de systèmes physique ou numériques est un processus complexe mêlant des défis techniques et humains. La première étape consiste à donner corps aux idées en rédigeant des spécifications ou un cahier des charges du système en devenir. Généralement écrits en langage naturel par des analystes fonctionnels (business analysts), ces documents sont des pièces maîtresses qui lient toutes les parties prenantes pendant toute la durée du projet et facilite le partage et la compréhension de ce qu’il faut faire. L’ingénierie des exigences propose diverses techniques (revues, modélisation, formalisation, etc.) pour réguler ce processus et améliorer la qualité (cohérence, complétude, etc.) des exigences produites, dans le but de détecter et corriger les défauts avant même l’implémentation du système.
Dans le domaine de l’ingénierie des exigences, l’arrivée récente des réseaux de neurones à très grands modèles (LLM) a la capacité de « changer la donne » [4]. Nous proposons de soutenir le travail de l’analyste fonctionnel avec un outil qui facilite et fiabilise la rédaction du référentiel d'exigences. L’outil exploitera un agent conversationnel de type transformeur/LLM (tels que ChatGPT ou Lama) combiné à des méthodes rigoureuses d'analyse et de conseil. Il proposera des options de réécriture des exigences dans un format compatible avec les normes INCOSE ou EARS, analysera les résultats produits par le LLM, et fournira un audit de qualité des exigences.

Développement d'Algorithmes pour la Détection et la Quantification de Biomarqueurs à partir de Voltammogrammes

L'objectif du post-doctorat est de développer une solution algorithmique et logicielle performante permettant la détection et la quantification des biomarqueurs d'intérêt à partir de voltammogrammes. Ces voltammogrammes sont des signaux unidimensionnels issus de capteurs électrochimiques innovants. L'étude sera réalisée en étroite collaboration avec un autre laboratoire du CEA-LIST, le LIST/DIN/SIMRI/LCIM, qui proposera des capteurs électrochimiques dédiés et novateurs, ainsi qu'avec la start-up USENSE, qui développe un dispositif médical permettant la mesure de plusieurs biomarqueurs dans l'urine.

Reconstruction tomographique par rayons X basée sur des méthodes analytiques et Deep-Learning

Le CEA-LIST développe la plateforme logicielle CIVA, référence de la simulation des procédés de contrôle non destructif. Elle propose notamment des outils pour l’inspection radiographique X et tomographique qui permettent, pour un contrôle tomographique donné, de simuler l’ensemble des projections radiographiques (ou sinogramme) en prenant en compte divers phénomènes physiques associés, ainsi que la reconstruction tomographique correspondante.
Le travail proposé s’intègre dans la contribution du laboratoire à un projet européen qui porte sur l’inspection tomographique de containers de transport de marchandise avec des systèmes d’inspection utilisant des sources de haute énergie. Les contraintes spatiales de l’étape d’acquisition des projections (les camions transportant les containers passent dans un portique d’inspection) impliquent une adaptation de la géométrie du système source/détecteur et par conséquent de l’algorithme de reconstruction correspondant. De plus, le système ne peut générer qu’un nombre de projections réduit, ce qui rend le problème mal posé dans le contexte de l’inversion.
Les contributions attendues portent sur deux aspects distincts de la méthodologie de reconstruction à partir des données acquises. D’une part, il s’agit d’adapter les méthodes de reconstruction analytiques à la géométrie d’acquisition spécifique de ce projet, et d’autre part de travailler sur des méthodes permettant de pallier le manque d’information lié au nombre limité de projections radiographiques. Dans cet objectif, des méthodes d’apprentissage supervisé, plus spécifiquement par Deep-Learning, seront utilisées à la fois pour compléter le sinogramme, et pour réduire les artéfacts de reconstruction causées par le faible nombre de projections disponible. Une contrainte d’adéquation aux données et au système d’acquisition sera également introduite afin de générer des projections physiquement cohérentes.

Développement d'algorithmes d'intelligence artificielle pour la localisation bande étroite

Les signaux bande étroite sont largement utilisés dans le contexte des réseaux de télécommunication faible consommation, qui sont l’un des composants clé de l’internet des objets (IoT). Cependant, ces signaux ne disposant que d’une bande de fréquence limitée, ils sont peu adaptés à de la localisation de précision, en particulier dans des environnements complexes tels que centre-ville ou des canyons urbains qui perturbent fortement le trajet de l’onde. Une approche permettant de surmonter ces difficultés consiste à s’appuyer sur un modèle 3D de la ville et de ses bâtiments afin d’améliorer la modélisation de la propagation cependant les algorithmes classiques (lancés de rayons par ex.) ont montré leurs limites pour répondre à un problème aussi complexe. Afin de dépasser les limitations actuelles, le laboratoire LCOI souhaite explorer les approches à base d’intelligence artificielle (IA) qui semblent très pertinentes pour ce type de problèmes. Le laboratoire LCOI a déployé un réseau bande étroite dans la ville de Grenoble et démarré une large collecte de mesure afin de supporter ces études.
En s’appuyant sur l’analyse de la littérature existante ainsi que sur les connaissances acquises au sein du laboratoire, le candidat devra
- Superviser et contribuer à la campagne de mesures
- Exploiter les données collectées afin de mieux comprendre les caractéristiques de propagation des signaux bande étroite dans différents environnements
- Développer une chaine de simulation de la propagation des signaux
- Affiner les calculs de borne de performance d’une localisation bande étroite
- Développer des algorithmes de localisation utilisant l’intelligence artificielle ainsi que la topologie 3D, et les comparer à ceux de l’état de l’art
- Contribuer des projets au travers de son travail de recherche
- Publier son travail dans des conférences et des journaux de qualité

développement d'un jumeau numérique de procédés complexes

L’émergence actuelle des nouvelles technologies du numérique fait entrevoir de nouvelles perspectives à l’industrie. L'application de ces technologies à l’exploitation des procédés de vitrification pourrait permettre d’améliorer la connaissance des procédés, optimiser leurs exploitations, de former les opérateurs, d'aider à la maintenance prédictive et d'assister à la conduite du procédé.
L'objectif du projet SOSIE est de faire une première preuve de concept de mise en œuvre de technologies numériques dans le domaine des procédés de vitrification, en intégrant réalité virtuelle, réalité augmentée, IoT (Internet des Objets) et Intelligence Artificielle.
Ce projet, mené en collaboration, entre le CEA et la PME GAMBI-M, est un projet région type READYNOV. GAMBI-M est une entreprise spécialisée dans la reconstruction d’environnements complexes et en ingénierie numérique. Le travail sera réalisé en collaboration étroite avec les équipes du CEA qui développent les procédés de vitrification des déchets nucléaires.
Le projet consiste à développer un jumeau numérique de 2 procédés de vitrification, l'un à froid, l'autre en haute activité. Il sera question de développer un jumeau numérique visuel, grâce auquel l’utilisateur pourra visiter les cellules et accéder en tout point en virtuel. A partir de ce modèle reconstruit, un jumeau « augmenté » sera développé et sera connecté à l’automate de supervision. Enfin, la dernière étape consistera à développer « le jumeau intelligent » en exploitant les bases de données existantes sur le fonctionnement du procédé. En entrainant des algorithmes d’IA sur ces données, un modèle prédictif de fonctionnement nominal sera généré.
Des publications sont attendues sur la mise en œuvre des outils de réalité virtuelle et réalité augmentée sur des opérations en chaines blindées, ainsi que sur le développement de méthodes d’apprentissage profond pour l’assistance à la conduite de procédés aussi complexes.

Circuits hybrides CMOS / spintronique pour le calcul d'optimisation

Le sujet proposé s’inscrit dans le contexte de la recherche d'accélérateurs hardware pour la résolution de problèmes d’optimisation NP-difficiles. De tels problèmes, dont la résolution exacte en temps polynomial est hors de portée des machines de Turing déterministes, trouvent des applications dans divers domaines tels que les opérations logistiques, le design de circuits (e.g. placement-routage), le diagnostic médical, la gestion de réseaux intelligents (e.g. smart grid), la stratégie de management etc.
L'approche considérée s'inspire du modèle d'Ising, et repose sur l'évolution de la configuration des états binaires d'un réseau de neurones artificiels. Dans le but d'améliorer la précision du résultat ainsi que la vitesse de convergence, les éléments du réseau peuvent bénéficier d'une source d'aléas intrinsèque ajustable. Des preuves de concept récentes soulignent l'intérêt de matérialiser de tels neurones via la résistance de jonctions superparamagnétiques.

Les objectifs principaux sont la simulation, le dimensionnement puis la fabrication de réseaux d'éléments hybrides associant la circuiterie CMOS à des jonctions tunnel magnétiques. Les véhicules de test seront ensuite caractérisés en vue de démontrer leur fonctionnalité.

Ces travaux s'effectueront dans le cadre d'une collaboration scientifique entre le CEA-Leti et Spintec.

Sûreté et assurance des systèmes basés Intelligence Artificielle

Le poste est lié à l’évaluation de la sûreté et à l’assurance des systèmes basé IA (Intelligence Artificielle). Actuellement, pour un système n’utilisant pas des composants d’apprentissage automatique, la sûreté fonctionnelle est évaluée avant le déploiement du système et les résultats de cette évaluation sont compilés dans un dossier de sécurité qui reste valable pendant toute la durée de vie du système. Pour les nouveaux systèmes intégrant des composants d’IA, en particulier les systèmes auto-apprenants, une telle approche d’ingénierie et d’assurance n’est pas applicable car le système peut présenter un nouveau comportement face à des situations inconnues pendant son fonctionnement.

L’objectif du post-doc sera de définir une approche d’ingénierie pour effectuer une évaluation de la sûreté des systèmes basés IA. Un deuxième objectif est de définir les artefacts du dossier d’assurance (objectifs, preuves, etc.) pour obtenir et préserver une confiance justifiée dans la sûreté du système tout au long de sa durée de vie, en particulier pour les systèmes basés IA à apprentissage opérationnel. L’approche sera mise en œuvre dans un framework open-source qui sera évaluée sur des applications industrielles.

Le titulaire du poste rejoindra une équipe de recherche et développement dans un environnement très stimulant avec des opportunités uniques de développer un solide portefeuille technique et de recherche. Il devra collaborer avec des partenaires académiques et industriels, contribuer et gérer des projets nationaux et européens, préparer et soumettre du matériel scientifique pour publication, fournir des conseils aux doctorants.

Conception de circuit digitaux pour le calcul dans les mémoires non-volatiles résistives

Pour répondre à différents enjeux scientifiques et sociétaux, les circuits intégrés de demain doivent gagner en efficacité énergétique. Or, la majorité de leur énergie est aujourd’hui consommée par les transferts de données entre les blocs mémoire et logique dans des architectures circuit de type Von-Neumann. Une solution émergente et disruptive à ce problème consiste à rendre possible des calculs directement dans la mémoire (« In-Memory-Computing »). Les nouvelles technologies de mémoires résistives non-volatiles et de transistors à nanofils de silicium développées au LETI et intégrées en 3D permettraient de proposer pour la première fois une solution technologique performante et viable à un calcul intensif dans la mémoire.
Un projet transverse a commencé sur le sujet au Leti: de l’application à l’implémentation technologique, en passant par le logiciel et le circuit. Le but est de créer des nano-fonctionnalités en mixant à très faible échelle des dispositifs logiques et mémoires à très grande densité et très grosses capacités [ArXiv 2012.00061]. Un accélérateur circuit de In-Memory-Computing sera conçu et fabriqué au Leti, permettant d’améliorer les performances énergétique d’un facteur 20 par rapport à un circuit Von-Neumann de l’état de l’art.

Top