Apprentissage de règles causales

Dans le cadre d’un projet qui concerne la création de matériaux innovants, nous souhaitons renforcer notre plateforme dans sa capacité à apprendre à partir de peu de données expérimentales.
En particulier, nous souhaitons travailler dans un premier temps sur l’extraction de liens causaux entre les paramètres de fabrication et la propriété. L’extraction de causalité est un sujet de très grande importance en IA aujourd’hui et nous souhaitons adapter les approches existantes aux données expérimentales et leurs particularités afin de sélectionner les variables d’intérêt. Dans un second temps, nous nous intéresserons à partir de ces liens causaux, à leur caractérisation (inférence causale) par une approche à base de règles floues, c’est-à-dire que nous créerons des règles floues adapter à leur représentation.

Chercheur en intelligence artificielle appliquée à la microfluidique autonome

Cette offre de postdoctorat fait partie du projet 2FAST (Fédération de Laboratoires Fluidiques Autonomes pour Accélérer la Conception de Matériaux) du PEPR DIADEM, qui vise à automatiser complètement la synthèse et la caractérisation en ligne de matériaux à l’aide de puces microfluidiques « orchestrées ». Ces techniques offrent un contrôle précis et tirent parti des avancées numériques pour améliorer les résultats de la chimie des matériaux. Cependant, la caractérisation complète des nano/micro-matériaux à cette échelle reste un défi en raison de son coût et de sa complexité. 2FAST ambitionne d’exploiter les progrès récents dans l'automatisation et de l'instrumentation des plateformes microfluidiques, afin de développer des puces microfluidiques interopérables et automatiquement pilotées permettant une synthèse contrôlée de nanomatériaux. Plus précisément, l'objectif est d'établir une preuve de concept pour une plateforme de réacteur microfluidique/millifluidique à haut débit pour la production continue de nanoparticules de métaux nobles. Des boucles de rétroaction gérées par des outils d’intelligence artificielle contrôleront la progression de la réaction à partir d’informations acquises en ligne par des techniques spectrométriques (UV-Vis, SAXS, Raman). Le postdoctorat proposé porte sur l’ensemble des travaux en intelligence artificielle associés à ces développements, à savoir : i) la conception de boucles de rétroaction, ii) la création d'une base de données de signaux adaptés à l'apprentissage automatique, iii) la mise en œuvre de méthodes d'apprentissage automatique pour connecter les différentes données et/ou piloter les dispositifs microfluidiques autonomes.

IA générative pour l'ingénierie dirigiée par les modéles

L'IA générative et les grands modèles de langage (LLM), tels que Copilot et ChatGPT, peuvent compléter le code à partir de fragments initiaux écrits par un développeur. Ils sont intégrés dans des environnements de développement de logiciels tels que VS code. De nombreux articles analysent les avantages et les limites de ces approches pour la génération de code. Malgré quelques lacunes, le code produit est souvent correct et les résultats s'améliorent.

Cependant, une quantité étonnamment faible de travaux a été réalisée dans le contexte de la modélisation des logiciels. L'article de Cámara et al. conclut que si les performances des LLM actuels pour la modélisation de logiciels sont encore limitées (contrairement à la génération de code), il est nécessaire (contrairement à la génération de code) d'adapter nos pratiques d'ingénierie basées sur les modèles à ces nouveaux assistants et de les intégrer dans les méthodes et outils MBSE.

L'objectif de ce post-doc est d'explorer l'IA générative dans le contexte de la modélisation des systèmes et des outils associés. Par exemple, l'assistance de l'IA peut soutenir l'achèvement, la refactorisation et l'analyse (par exemple les modèles de conception identifiés ou les anti-modèles) au niveau du modèle. Les propositions sont discutées au sein de l'équipe et, dans un deuxième temps, le mécanisme est prototypé et évalué dans le contexte du modeleur UML open-source Papyrus.

Développement d'approches pour l'intelligence artificielle à base de bruit

Les approches actuelles de l'IA sont largement basées sur la multiplication matricielle. Dans le de ce projet postdoccadre toral, nous aimerions poser la question suivante : quelle est la prochaine étape ? Plus précisément, nous aimerions étudier si le bruit (stochastique) pourrait être la primitive computationnelle sur laquelle la nouvelle génération d'IA est construite. Nous répondrons à cette question en deux étapes. Tout d'abord, nous explorerons les théories concernant le rôle computationnel du bruit microscopique et au niveau du système dans les neurosciences, ainsi que la façon dont le bruit est de plus en plus exploité dans l'intelligence artificielle. Nous visons à établir des liens concrets entre ces deux domaines et, en particulier, nous explorerons la relation entre le bruit et la quantification de l'incertitude.
Sur cette base, le chercheur postdoctorant développera ensuite de nouveaux modèles qui exploitent le bruit pour effectuer des tâches cognitives, dont l'incertitude est une composante intrinsèque. Cela ne servira pas seulement comme une approche d'IA, mais aussi comme un outil informatique pour étudier la cognition chez les humains et aussi comme un modèle pour des zones spécifiques du cerveau connues pour participer à divers aspects de la cognition, de la perception à l’apprentissage, la prise de décision et la quantification de l'incertitude.
Les perspectives du projet postdoctoral devraient informer sur la manière dont l'imagerie IRMf et les enregistrements électrophysiologies invasifs et non invasifs peuvent être utilisés pour tester les théories de ce modèle. En outre, le candidat devra interagir avec d'autres activités du CEA liées au développement d'accélérateurs d'IA analogiques basés sur le bruit.

Stratégie de co-conception pour l'exploitation de la sparsité spatio-temporelle dans les modèles de réseaux de neurones à l'apprentissage/inférence

L'objectif du projet est d'identifier, d'analyser et d'évaluer les mécanismes de modulation de la sparsité spatio-temporel des fonctions d'activation afin de minimiser la charge de calcul du modèle NN de transformateur (apprentissage/inférence). Une approche combinée avec la quantification extrême sera également envisagée.
L'objectif est d'affiner conjointement une stratégie innovante pour évaluer les impacts et les gains potentiels de ces mécanismes sur l'exécution du modèle sous contraintes matérielles. En particulier, cette co-conception devrait également permettre de qualifier et d'exploiter une boucle de rétroaction bidirectionnelle entre un réseau neuronal ciblé et une instanciation matérielle afin d'obtenir le meilleur compromis (compacité/latence).

Hybridation de LLMs pour l’ingénierie des exigences

Le développement de systèmes physique ou numériques est un processus complexe mêlant des défis techniques et humains. La première étape consiste à donner corps aux idées en rédigeant des spécifications ou un cahier des charges du système en devenir. Généralement écrits en langage naturel par des analystes fonctionnels (business analysts), ces documents sont des pièces maîtresses qui lient toutes les parties prenantes pendant toute la durée du projet et facilite le partage et la compréhension de ce qu’il faut faire. L’ingénierie des exigences propose diverses techniques (revues, modélisation, formalisation, etc.) pour réguler ce processus et améliorer la qualité (cohérence, complétude, etc.) des exigences produites, dans le but de détecter et corriger les défauts avant même l’implémentation du système.
Dans le domaine de l’ingénierie des exigences, l’arrivée récente des réseaux de neurones à très grands modèles (LLM) a la capacité de « changer la donne » [4]. Nous proposons de soutenir le travail de l’analyste fonctionnel avec un outil qui facilite et fiabilise la rédaction du référentiel d'exigences. L’outil exploitera un agent conversationnel de type transformeur/LLM (tels que ChatGPT ou Lama) combiné à des méthodes rigoureuses d'analyse et de conseil. Il proposera des options de réécriture des exigences dans un format compatible avec les normes INCOSE ou EARS, analysera les résultats produits par le LLM, et fournira un audit de qualité des exigences.

Autoparamétrage pour le calcul à très haute performance en couplage partitionné

La prise en compte de physique multiples et couplées est au cœur de nombreux besoins applicatifs dans des domaines aussi variés que l'aéronautique, la défense ou la biologie. C'est également un domaine d'expertise fort pour la Direction des Energies du CEA, avec de multiples domaines tels que l'interaction fluide-structure, la neutronique couplée à la thermohydraulique et/ou à la thermomécanique ou encore la modélisation des accidents graves. L'émergence des architectures exascale ouvre la voie à de nouveaux niveaux de fidélités prometteurs pour la simulation, mais augmente également de manière significative la complexité de nombreuses applications logicielles en termes de réécriture totale ou partielle. Il encourage donc spécifiquement le couplage pour limiter le travail de développement. L'idée est de rechercher chaque physique d'intérêt dans un nombre nécessairement réduit de composants logiciels hautement optimisés, plutôt que d'effectuer des développements spécifiques, éventuellement redondants, dans des applications autonomes.
Une fois que le problème multiphysique couplé a été écrit avec les niveaux de précision et de stabilité attendus, le travail proposé se concentre sur les algorithmes de résolution pour permettre au couplage entre les applications supposées être elles-mêmes exascale-compatibles, d'être résolu efficacement à l'exascale. Il convient également de noter qu'en général, les couplages considérés peuvent présenter un niveau de complexité élevé, impliquant de nombreuses physiques avec différents niveaux de rétroaction entre elles et divers schémas de communication allant d'échanges aux frontières jusqu'à des domaines se recouvrant. Le stage post-doctoral proposé, à effectuer dans le cadre du projet collaboratif ExaMA, est en particulier consacré à l'identification et à la mise au point dynamique des paramètres numériques pertinents découlant des algorithmes de couplage et ayant un impact sur l'efficacité de la simulation globale.

Conception de filtres de réception assistée par machine learning

Le CEA réalise des essais en vol d'objets spatiaux munis d'antennes pour réaliser des fonctions spécifiques relatives aux expérimentations embarquées sur les objets. Ces objets conçus par le CEA doivent fonctionner dans des environnements électriques, mécaniques et climatiques sévères ce qui demande un recours à des conceptions utilisant des technologies particulières, parfois en rupture. En particulier, la fonction de filtrage RF en réception nécessite des composants robustes mécaniquement et d'encombrement réduit tout en assurant des performances électriques exigeantes. La technologie SIW (Substrate Integrated Waveguide) permet d'accéder à tel compromis.
L'évolution des techniques de fabrication additive a rendu la fabrication de composants en technologie SIW de plus en plus accessible. Le SIW consiste à réaliser un guide d'onde électromagnétique au sein d'un substrat de circuit imprimé radiofréquence (RF). Cela permet de profiter des avantages liés à la propagation en guide d'onde volumique (faibles pertes notamment) sans compromettre l'intégration circuit. La conception de guides d'ondes SIW et de composants dérivés (comme les filtres à cavités) est cependant plus complexe du fait d'un plus grand nombre de variables physiques mises en jeu dans les modèles électromagnétiques. Un stage de fin d'études de 6 mois ayant abouti à la mise au point de méthodes de conception de filtres SIW a permis de mettre en exergue les difficultés liées à la conception de composants en SIW. Parmi les difficultés rencontrées, les couplages non-triviaux entre certaines variables de conception ont été mentionnés, et c'est précisément dans ce type de situation qu'il peut être intéressant d'évaluer l'apport de méthodes issues du domaine de l'IA. Ce contrat post-doctoral propose ainsi de concevoir des outils d'aide à la conception de filtres en technologie SIW basés sur l'entraînement de réseaux de neurones artificiels (Artificial Neural Network - ANN).

Modélisation de composants et fonctions électroniques en environnement

L’objectif du travail sera de proposer une méthodologie de modélisation des composants élémentaires à semi-conducteur (transistors - diodes) prenant en compte leurs dégradations permanentes après irradiation ou les effets transitoires pendant l'irradiation. Ces modélisations seront d'abord réalisées au moyen de codes de simulation standard basés sur le langage Spice et sur des bibliothèques existantes de modèles fonctionnels des composants. Par la suite, des nouveaux modèles de composants seront à développer dans un environnement logiciel à définir pour parvenir à une simulation plus réaliste et optimisée des électroniques sous contraintes radiatives. Les données d’entrée seront issues de la littérature, d’expérimentations passées et d’expériences spécifiques à réaliser dans le cadre du post-doc. Une approche générique d'une méthode de caractérisation expérimentale sera à développer afin de déterminer les paramètres d'un modèle de composant dans un environnement radiatif donné. Les modèles radiatifs seront à valider pour différentes technologies de composants par comparaison entre la simulation et l'expérience.

Exploitation des méthodes formelles pour la gestion des interférences au sein des systèmes embarqués H/F

Au sein d’une équipe de recherche technologique pluridisciplinaire d’experts en outils de co-design SW/HW par application de méthodes formelles, vous intervenez dans un projet national de recherche visant à développer un environnement pour identifier, analyser et réduire les interférences engendrées par l’exécution concurrente d’applicatifs sur une plateforme matérielle multi-coeur hétérogène sur étagère (COTS)

Top