Etude d’un imageur basse consommation pour réseau de capteurs à traitement distribué

Dans le cadre d’un projet académique collaboratif, l’objectif de cette thèse est de développer un capteur d’image « intelligent » dédié à un réseau de caméras sans fil intégrant du calcul distribuée à base d’intelligence artificielle.
Un réseau de caméras actuel contient plusieurs caméras standards qui transmettent leurs images à un serveur global effectuant le traitement d’inférence ciblé. Ce type d’architecture propose une performance énergétique et une frugalité qui ne sont pas compatibles avec les exigences des applications de type IoT.
L’objectif du projet est de viser une architecture du nœud du réseau présentant une frugalité matérielle inédite grâce à une approche distribuée et collaborative basée sur des nœuds de calcul à ultra-basse consommation. Le noyau d’inférence de chaque nœud sera construit autour de processeurs ASIC effectuant des calculs sous forme analogique et numérique. Le démonstrateur final consistera en un réseau sans fil de caméras (nœuds du réseau de capteurs) intégrant des capteurs d’images dédiés associés à des processeurs hybrides effectuant un traitement mixte.
Dans ce contexte, le capteur d’image du nœud doit extraire des caractéristiques de l’image avec frugalité et efficacité, ce qui implique que vous devrez définir, concevoir et tester une architecture de lecture innovante d’un imageur standard. En collaboration avec les partenaires académiques, vous serez impliqué dans la définition de l’architecture globale du nœud permettant de définir essentiellement le format des données de sortie et la procédure de lecture de l’imageur, y compris le prétraitement potentiel pour les calculs d’inférence distribués. L’architecture étudiée intégrera des solutions basse consommation innovantes pour adresser les applications IoT ciblées et réaliser à la fois des acquisitions d’images et un pré-traitement IA.
Comme un démonstrateur de capteur d’image est prévu dans cette thèse, le travail sera mené au CEA-Leti dans le laboratoire L3i, en utilisant des outils professionnels de conception de circuits intégrés et des environnements de développement logiciel.

Optimisation d'architecture neuronale post-entraînement pour petit modèles de langage

L’IA générative, et en particulier les modèles de langage (LLM), ont conduit à une nouvelle révolution de l'IA avec des applications dans tous les domaines. Cependant, les LLM sont très gourmands en ressources (énergie, calculs, etc.) et, par conséquent, difficiles à mettre en œuvre sur des systèmes embarqués autonomes. Les LLM peuvent être optimisés en modifiant leur architecture, pour remplacer les opérations de Transformer coûteuses par des alternatives moins coûteuses. Etant donné la difficulté d’entraîner des LLM « from scratch », cette thèse vise à développer des méthodes d’optimisation d’architecture neuronale post-entraînement, applicable à des petits LLM (SLM). De plus, la thèse vise à proposer un modèle de performance des différentes opérations d’un SLM et leurs alternatives, afin de guider le remplacement des opérations, et ainsi proposer une méthodologie complète d’optimisation de SLM en prenant en compte les contraintes matérielles. Le travail sera valorisé par des publications dans des conférences et journaux de rang majeur en IA, et les codes et méthodes développés pourront être intégrés dans les outils développés au CEA.

Micro-électrolyse en continu pour une synthèse plus vertueuse de nanoparticules d'or

Les nanoparticules (NPs) d'or possèdent des propriétés électroniques, photoniques et chimiques uniques, qui les rendent incontournables pour un grand nombre d'applications technologiques ou médicales. Elles sont typiquement produites par précipitation contrôlée du métal à partir d'une solution aqueuse d'un sel d'or. Cela permet de régler précisément leur taille, et donc leurs propriétés, ce qui est crucial pour la plupart des applications. Les microréacteurs en continu, dans lesquels le mélange de la solution de sel avec celle contenant l'agent réducteur est optimal, permettent un contrôle accru de la réaction, et donc de la taille des NPs. Malgré tout, même dans cas, la synthèse de NPs de très petite taille nécessite d'utiliser des agents réducteurs très puissants qui sont souvent nocifs pour l'Homme et pour l'Environnement. Nous proposons de limiter leur impact et de développer un procédé de fabrication plus parcimonieux en insérant dans le micro-réacteur une cellule d'électrolyse afin de synthétiser in-situ la juste quantité d'agent réducteur nécessaire à la réaction.
Votre mission consistera à tester et adapter une (ou des) cellule(s) d'électrolyse en continu pour la synthèse de NPs d'or. Pour cela, vous devrez identifier différents systèmes réactionnels et types de cellules adaptés. Vous pourrez également tester différents agents de surface qui permettent de stabiliser ces NPs tout en leur conférant des propriétés chimiques intéressantes sur le plan biologique. Tout au long de ce travail, vous veillerez à maintenir les bonnes caractéristiques des NPs (taille, propriétés chimiques de surface, propriétés optiques, etc.) en fonction de l'application visée.

Approche multi-échelle pour la propagation des ultrasons en milieux multi-diffusifs inhomogènes

Les ondes ultrasonores sont fortement influencées par la microstructure des matériaux, ce qui entraîne atténuation, dispersion, et bruit. La modélisation de ces effets est essentielle, notamment pour le contrôle non destructif, où ils peuvent soit gêner la détection de défauts, soit fournir des informations sur le matériau. Des modèles analytiques et numériques permettent de mieux prédire et interpréter ces phénomènes. Des propriétés statistiques homogènes sont généralement supposées. En pratique, les microstructures présentent souvent des variations spatiales importantes, liées par exemple aux procédés de fabrication. Selon l’échelle de ces variations par rapport à la longueur d’onde, elles peuvent induire des changements abrupts ou progressifs de propriétés effectives. Cette thèse vise à établir un cadre théorique intégrant à la fois l’aléa microstructural et ses variations spatiales, afin de proposer des stratégies de simulation pertinentes selon les échelles considérées. L’approche sera d’abord développée en 1D, puis étendue aux cas 2D et 3D en s’appuyant sur des outils développés au laboratoire, avec des validations numériques et éventuellement expérimentales.

Prédiction des effets de dispersion d’ondes élastiques par un modèle semi-analytique sous approximation hautes fréquences

Les méthodes d’inspection ultrasonores (UT) sont une composante essentielle des contrôles non-destructifs (CND). Elles sont couramment employées pour l’inspection de composants mécaniques tels que les soudures (nucléaire, pétrochimie) ou les structures en matériau composite (aéronautique). Afin de comprendre les phénomènes physiques en jeu pour une configuration donnée, la simulation est un atout et parfois une étape incontournable pour la mise en place du procédé d’inspection. Les approches de modélisation se répartissent en deux grandes familles : les modèles purement numériques, basés sur les éléments finis (EF), et les méthodes semi-analytiques, dérivées d’approximations haute fréquence (HF) comme les rayons paraxiaux. Ces dernières, bien que privilégiées pour leur efficacité calculatoire, introduisent des simplifications pouvant altérer la précision quantitative des résultats, en particulier pour des phénomènes comme la dispersion (variation de la vitesse des ondes selon la fréquence), fréquents dans certains contextes industriels.
Ce projet de thèse vise à enrichir l’approche par rayons paraxiaux en y intégrant des modèles d’interfaces dispersives (interplis composites, couches de couplant), des milieux viscoélastiques dispersifs, ainsi qu’un modèle d’ondes guidées modales. L’ambition est de concevoir un outil de simulation capable de reproduire fidèlement des configurations de contrôle réalistes, améliorant ainsi la représentativité des résultats.

Concilier la prédictabilité et la performance dans les architectures de processeurs pour les systèmes critiques

Les systèmes critiques possèdent à la fois des exigences fonctionnelles et temporelles, ces dernières garantissant que toutes les échéances sont respectées pendant l’exécution ; tout dépassement pourrait entraîner des conséquences catastrophiques. La nature critique de ces systèmes impose la mise en œuvre de solutions matérielles et logicielles spécialisées.
Cette thèse de doctorat porte sur le développement d’architectures matérielles pour systèmes critiques, appelées architectures prédictibles, capables de fournir les garanties temporelles nécessaires. Plusieurs architectures de ce type existent déjà, généralement fondées sur des pipelines in-order et intégrant soit des restrictions comportementales (par exemple, la désactivation de mécanismes de spéculation complexes), soit des spécialisations structurelles (par exemple, des caches re-designés ou une arbitrage déterministe pour l’accès aux ressources partagées). Ces restrictions et spécialisations ont inévitablement un impact sur les performances ; la conception d’architectures prédictibles doit donc traiter directement le compromis entre prédictibilité et performance. Cette thèse vise à explorer ce compromis d’une manière nouvelle, en adaptant une variante hautes performances d’un processeur in-order (CVA6) et en développant des techniques top-down pour le rendre prédictible. Les performances de tels processeurs reposent habituellement sur des mécanismes tels que la prédiction de branchement, le préchargement (prefetching) et la prédiction de valeurs, mis en œuvre à l’aide d’éléments de stockage spécialisés (par exemple, des tampons) et appuyés par des mécanismes de contrôle tels que la restauration d’état (rollback) en cas de mauvaise spéculation. Dans ce contexte, l’objectif de la thèse est de définir un schéma général de prédictibilité pour l’exécution spéculative, couvrant à la fois l’organisation du stockage et le comportement de restauration.

Détection hors distribution avec des modèles de fondation de vision et des méthodes post-hoc

Le sujet de thèse se concentre sur l'amélioration de la fiabilité des modèles de deep learning, en particulier dans la détection des échantillons hors distribution (OoD), qui sont des points de données différents des données d'entraînement et peuvent entraîner des prédictions incorrectes. Cela est particulièrement important dans des domaines critiques comme la santé et les véhicules autonomes, où les erreurs peuvent avoir des conséquences graves. La recherche exploite les modèles de base de la vision (VFMs) comme CLIP et DINO, qui ont révolutionné la vision par ordinateur en permettant l'apprentissage à partir de données limitées. Le travail proposé vise à développer des méthodes qui maintiennent la robustesse de ces modèles pendant le fine-tuning, garantissant qu'ils peuvent toujours détecter efficacement les échantillons OoD. En outre, la thèse explorera des solutions pour gérer les changements de distribution des données au fil du temps, un défi courant dans les applications du monde réel. Les résultats attendus incluent de nouvelles techniques pour la détection OoD et des méthodes adaptatives pour les environnements dynamiques, améliorant ainsi la sécurité et la fiabilité des systèmes d'IA dans des scénarios pratiques.

Monitoring de structure en environnement sévère : tomographie passive d’ondes élastiques par réseaux de Bragg sur fibre optique

L’utilisation de réseaux de Bragg sur fibre optique comme récepteur d’ondes élastiques guidées est étudiée depuis plusieurs années au LIST en tant que solution innovante pour le monitoring de structures soumises à des contraintes opérationnelles sévères.
Des progrès récents sur l’instrumentation opto-électronique dédiée à ce type de mesure ont permis de montrer la capacité de l’équipe de faire des mesures d’ondes élastiques à plus de 1000°C, et d’obtenir des degrés de multiplexage sur une même fibre optique qui offrent la possibilité de mettre en œuvre des algorithmes de tomographie par ondes élastiques guidées. Par ailleurs, un modèle de mesure d’ondes élastiques par réseaux de Bragg a récemment été développé. Ce modèle sera mis en œuvre afin d’adapter les algorithmes de tomographie, développés et éprouvés pour les capteurs piézoélectriques « standards », à la spécificité de la mesure Bragg.
Cette thèse pourra s’appuyer sur des campagnes expérimentales prévues dans des projets européens et des collaborations industrielles, qui permettront de mettre en œuvre en 2027/2028 ce type d’instrumentation sur des structures industrielles en conditions réelles (notamment des centrales nucléaires) ce qui offrira des données uniques à exploiter.
Le doctorant travaillera sur des aspects purement algorithmiques (adaptation des algorithmes de tomographie à la spécificité de la mesure Bragg, à la prise en compte de complexités géométriques sur structures industrielles réelles, problématique de calibration liées aux fortes températures / gradients de température) et à la réalisation de démonstrateurs au laboratoire. Il participera également au déploiement de la technologie sur sites industriels et à l’analyse des données.

Support logiciel pour l'utilisation d'accélérateur de calcul et de transfert mémoire

Pour des raisons d'énergie les futurs ordinateurs devront utiliser des accélérateurs pour le calcul comme pour les accès à la mémoire (GPU, TPU, NPU, DMA intelligents). Les application d'IA ont des besoins en calcul intensif à la fois en intensité de calcul et en débits mémoire.

Ces accélérateurs ne se basent pas sur un jeu d'instruction simple (ISA), ils s'affranchissent du modèle de Von Neuman et ils nécessitent d'écrire manuellement du code spécialisé.

Par ailleurs, il est difficile de comparer l'utilisation de ces accélérateurs avec un code utilisant un processeur non spécialisé, les codes sources initiaux étant très différents.

HybroLang est un langage de programmation proche matériel permettant d'exprimer des programmes utilisant toutes les capacités de calcul d'un processeur tout en permettant une spécialisation du code en fonction des données connues à l'exécution.

Le compilateur HybroGen a déjà démontré sa capacité de programmation d'accélérateurs de calcul en mémoire, comme en optimisation de code sur CPU classique en réalisant des optimisations innovantes.

Cette thèse se propose d'étendre le langage HybroLang afin de :

- faciliter la programmation d'application d'IA apportant le support pour des données complexes : stencils, convolution, calcul clairsemé

- permettre la génération de code à la fois sur CPU et avec des accélérateurs matériels en cours de développement au CEA (calcul clairsemé, calcul en mémoire, accès à la mémoire)

- permettre la comparaison d'architectures différentes en partant d'un seul code source d'application

Idéalement un candidat devra avoir des connaissances dans les domaines suivants : architecture des ordinateurs, implémentation de langage de programmation, compilation et optimisation de code.

Génération assistée par LLM de modèles matériels fonctionnels et formels

Les systèmes matériels modernes, comme les processeurs RISC-V ou les accélérateurs matériels, reposent sur des simulateurs fonctionnels et des modèles de vérification formelle pour garantir leur bon fonctionnement, leur fiabilité et leur sécurité. Aujourd’hui, ces modèles sont majoritairement développés manuellement à partir des spécifications, ce qui demande beaucoup de temps et devient de plus en plus complexe à mesure que les architectures évoluent.

Cette thèse propose d’explorer l’utilisation des grands modèles de langage (LLMs) pour automatiser la génération de modèles matériels fonctionnels et formels à partir de spécifications de conception. Le travail consistera à concevoir une méthodologie permettant de produire des modèles exécutables (par exemple des simulateurs) et des modèles formels cohérents, tout en augmentant la confiance dans leur correction. Pour cela, la thèse s’appuiera sur des boucles de retour issues des outils de simulation et de vérification formelle, combinées à des techniques d’apprentissage par renforcement.

Les résultats attendus sont une réduction significative de l’effort de modélisation manuelle, une meilleure cohérence entre les différents modèles, et une validation de l’approche sur des cas d’étude réalistes, notamment autour des architectures RISC-V et des accélérateurs matériels.

Top