Optimisation topologique des performances optiques de µLED
Les performances des micro-LEDs (µLEDs) sont fondamentales pour les micro-écrans, un domaine d’excellence du laboratoire LITE au CEA-LETI. Cependant, simuler ces composants est complexe et coûteux en calculs, en raison de la nature incohérente des sources lumineuses et des géométries impliquées. Cela limite la possibilité d’explorer efficacement des espaces de conception multi-paramètres.
Cette thèse propose de développer une méthode innovante basée sur les éléments finis pour accélérer les simulations tout en rendant possible l’utilisation de l’optimisation topologique. L’objectif est de produire des designs non intuitifs maximisant les performances tout en respectant les contraintes industrielles.
Le travail se divise en deux phases :
Développer une méthode de simulation rapide et fiable, en intégrant des approximations physiques adaptées aux sources incohérentes et en réduisant les temps de calcul d’un facteur significatif.
Concevoir un cadre d’optimisation topologique robuste, intégrant des contraintes de fabricabilité, pour générer des designs immédiatement réalisables.
Les résultats attendus incluent des designs optimisés pour micro-écrans offrant des performances accrues et une méthodologie généralisable à d'autres dispositifs photoniques.
Combinaison de sous et surapproximations de la memoire pour l'analyse de code bas-niveau
Le théorème de Rice énonçant qu'on ne peut pas avoir de méthode qui sache automatiquement dire si une propriété sur un programme est vraie ou non a conduit à séparer les outils de vérification en deux groupes: les outils sound fonctionnant par sur-approximation, comme l'interprétation abstraite, sont capables de prouver automatiquement que certaines propriétés sont vraies, mais ne savent parfois pas conclure et produisent des alarmes; à l'inverse, les outils complete fonctionnant par sous-approximation, comme l'exécution symbolique, savent produire des contre-exemples, mais pas démontrer si une propriété est vraie.
*Le but général de la thèse est d'étudier la combinaison entre méthodes sound et complete d'analyse de programme, et en particulier l'analyse statique par interprétation abstraite et la génération de formules sous-approximée par exécution symbolique*.
Nous nous intéresserons particulièrement à la combinaison d'abstractions sur et sous-approximantes, en particulier pour la mémoire. Les applications envisagées en priorité concernent les analyses de code au niveau binaire, telles que réalisées par la combinaison des plateformes d'analyse BINSEC et CODEX, pour pouvoir trouver des failles de securite automatiquement ou demontrer leur absence.
Etude et évaluation de capacités en technologie silicium pour applications dans la bolométrie infrarouge
Les microbolomètres constituent aujourd'hui la technologie dominante pour la réalisation de détecteurs thermiques infrarouges non refroidis. Ces détecteurs sont couramment utilisés dans les domaines de la thermographie et de la surveillance. Il est néanmoins attendu, pour les prochaines années, une explosion du marché des microbolomètres, avec notamment l'implantation de ces derniers dans les automobiles et la multiplication des objets connectés. Le CEA Leti Li2T, acteur reconnu dans le domaine des détecteurs thermiques infrarouges, transfère depuis plus de 20 ans les technologies successives de microbolomètres à l'industriel Lynred. Afin de rester compétitif dans ce contexte d'accroissement du marché des microbolomètres, le laboratoire travaille à des microbolomètres de rupture comportant des composants CMOS comme élément sensible. Dans cette optique, le laboratoire a engagé des études se focalisant sur des capacités en technologie silicium qui varient avec la température, avec des premiers résultats prometteurs non rapportés dans la littérature. Le sujet de thèse s'inscrit dans ce contexte et vise à démontrer l'intérêt de ces composants pour des applications microbolométriques. Il portera ainsi sur la modélisation analytique de ces composants et des effets physiques associés, ainsi que sur la lecture d'un tel composant dans une approche imageur microbolomètre. Une réflexion autour de l'intégration technologique sera également menée. L'étudiant bénéficiera de plusieurs lots technologiques déjà réalisés afin de caractériser expérimentalement les effets physiques et de prendre en main le sujet. L’étudiant aura à sa disposition l’ensemble des moyens de test du laboratoire (testeur paramétrique de semiconducteur, analyseur de bruit, banc optique, etc.) ainsi que les outils d’analyse pour une compréhension des phénomènes (Matlab/Python, simulations TCAD, simulations SPICE, Comsol, etc.). À l'issue de la thèse, l'étudiant sera en mesure de répondre à la question de l'intérêt de ces composants pour des applications microbolométriques.
Caractérisation de la récupération motrice au cours d’un processus de rééducation guidé par BCI
Les interfaces cerveau-machine ou BCI (pour Brain Computer Interface) permettent de restaurer une fonction perdue en offrant la possibilité à un individu de contrôler des dispositifs externes grâce à la modulation de son activité cérébrale. Le CEA a développé une technologie de BCI basée sur l’implant WIMAGINE de mesure de l’activité cérébrale par électrocorticographie (ECoG) et sur des algorithmes de décodages des intentions motrices. Cette technologie a initialement été testée pour le contrôle d’effecteurs robotiques de type exosquelette, et de dispositifs de stimulation médullaire pour pallier les pertes motrices graves. Ce paradigme initial de suppléance et de substitution, bien que prometteur, laisse désormais entrevoir un potentiel d’application différent : celui de la récupération fonctionnelle par rééducation guidée par BCI. La littérature actuelle suggère en effet que les BCI, utilisées de manière intensive et bien orientées, peuvent favoriser la plasticité neuronale et, par extension, une amélioration des capacités motrices résiduelles. En particulier, les BCI implantées en électrocorticographie (ECoG) pourrait apporter des gains thérapeutiques significatifs.
L’objectif de cette thèse est donc d’évaluer le potentiel de la technologie BCI du CEA pour favoriser l’amélioration des capacités motrices résiduelles de patients paralysés par plasticité neuronale.
Ce travail sera abordé par une démarche scientifique rigoureuse et multidisciplinaire, comprenant une revue exhaustive de la littérature scientifique, la mise en place et la réalisation d’expérimentations cliniques avec des patients, le développement algorithmique d’outils de suivi et d’analyse de la progression des patients et la publication des résultats significatifs dans des revues scientifiques de haut-niveau.
Cette thèse est destinée à un(e) étudiant(e) spécialisé(e) en ingénierie biomédicale, avec une expertise en traitement de signal et analyse de données physiologiques complexes et une expérience en Python ou Matlab. Un fort intérêt pour l’expérimentation clinique et les neurosciences sera aussi nécessaire. L’étudiant(e) travaillera au sein d’une équipe pluridisciplinaire au sein de CLINATEC, contribuant ainsi à la recherche de pointe dans le domaine des BCIs.
Accélération de simulations thermo-mécaniques par Réseaux de Neurones --- Applications à la fabrication additive et la mise en forme des métaux
Dans un certain nombre d'industries telle que la mise en forme des métaux ou la fabrication additive, l'écart entre la forme désirée et la forme effectivement obtenue est important, ce qui freine le développement de ces méthodes de fabrication. Cela est dû en bonne partie à la complexité des processus thermiques et mécaniques en jeu, difficiles à simuler à des fins d’optimisation du fait du temps de calcul important de la simulation des phénomènes en jeu.
La thèse vise à réduire significativement cet écart grâce à l'accélération des simulations thermo-mécaniques par éléments finis, notamment via le design d'une architecture de réseau de neurones adaptée, en s'appuyant sur les connaissances physiques théoriques.
Pour mener à bien ce sujet, la thèse bénéficiera d'un écosystème favorable aussi bien au LMS de l'École polytechnique qu'au CEA List : architecture PlastiNN développée en interne (brevet en cours de dépôt), bases de données mécanique existantes, supercalculateur FactoryIA et DGX, machine d'impression 3D. Il s'agira dans un premier temps de générer des bases de données à partir de simulations éléments finis thermo-mécaniques, puis d'adapter PlastiNN à apprendre de telles simulations, avant de mettre en œuvre des procédures d'optimisation s'appuyant sur ces réseaux de neurones.
L'objectif final de la thèse est d'illustrer l'accélération de simulations éléments finis ainsi obtenue sur des cas réels : d'une part par l'instauration d'une rétroaction durant l'impression métallique via la mesure du champ de température pour réduire l'écart entre géométrie désirée et géométrie fabriquée, d'autre part par la mise en place d'un outil de commande de forge qui permet d'arriver à une géométrie désirée à partir d'une géométrie initiale. Les deux applications s'appuieront sur une procédure d'optimisation rendue réalisable par l'accélération des simulations thermo-mécaniques.
Etude thermomécanique des hétérostructures en fonction des conditions de collage
Pour de nombreuses applications industrielles, l'assemblage de plusieurs structures est l'une des étapes clés du processus de fabrication. Cependant, ces étapes sont généralement difficiles à réaliser, car elles conduisent à des augmentations significatives des déformations. La maîtrise des contraintes générées par les hétérostructures est donc impérative. Nous proposons d'aborder ce sujet en utilisant à la fois des méthodes expérimentale et des outils de simulation afin de prédire et d'anticiper les problèmes dus aux fortes déformations
Mise en oeuvre d'une électronique d’acquisition et de traitement continu programmable à des températures cryogéniques
Le sujet de thèse que nous proposons a pour objet de démontrer qu’il est possible d’intégrer à des températures
cryogéniques l’intégralité de la chaîne d’instrumentation permettant de lire et de piloter les composants quantiques, comme
des qubits. En d’autres termes, nous cherchons à placer in-situ, dans le cryostat et au plus près des composants quantiques
(qubits) l’intégralité des systèmes, qui sont aujourd’hui placés à l’extérieur. De plus, afin de réaliser une avancée majeure,
nous visons une chaîne hyperfréquence (> 2 GHz) entièrement programmable. Ce dernier faut l’objet d’une thèse en cours
financée par l’Agence Innovation Défense (AID) et le Commissariat à l’Énergie Atomique (CEA) et d’un dépôt de projet de
type RAPID.
Dans le cadre de ce sujet de thèse, nous commencerons à quelques centaines de MHz. Plusieurs problèmes
principaux sont identifiés et sont à résoudre, parmi lesquels nous citerons :
— conception et intégration de chiplets en System-in-Packages (SiPs) compatibles avec les températures cryogéniques ;
— interfaçage et intégration dans le cryostat des composants Analog to Digital Converter (ADC), Digital to Analog
Converter (DAC) et processeurs de traitement ;
— gérer le débit de données élevés (plusieurs dizaines de Gbit/s par qubit) ;
— latence roundtrip maximum de 200 ns ;
— gestion de l’énergie (quelques dizaines de mW de budget par qubit) ;
— choix des étages cryogéniques adaptés au différents étages de traitements ;
— choix de technologies indépendantes de la nature des objets quantiques manipulés.
Résolutions de problèmes inverses par deep learning appliqués à l'interférométrie
Dans la continuité des travaux de thèse de Benoît Rougier et de Jérémi Mapas appliqués à l'interférométrie radiofréquence sur la compréhension de la propagation d’une onde électromagnétique à travers une onde de choc pour l'étude à cœur des propriétés de matériaux innovants, cette thèse vise à exploiter les signaux bruts du radio interféromètre pour déterminer simultanément la vitesse d’un choc et la vitesse matérielle dans des solides inertes ou énergétiques soumis à un choc soutenu ou non-soutenu. Un modèle de propagation des ondes millimétriques dans un milieu dissipatif présentant deux couches diélectriques séparées par des interfaces en mouvement a été élaboré pour adresser le cas du choc soutenu. Une résolution du problème inverse du modèle à deux couches avec pertes a été proposée avec l'apport du deep learning et des réseaux convolutifs. Un modèle multicouche sans pertes diélectriques a été également initié pour le cas du choc non soutenu.
L’exploitation des signaux bruts de l’interférométrie laser pour la mesure de vitesse d’interface fait également l’objet de nombreux travaux en traitement du signal avec par exemple l’utilisation de la transformée de Fourrier glissante, et/ou de la méthode des ondelettes. L’application du deep learning à l’interférométrie laser est recherchée pour permettre d’améliorer l’analyse des résultats. La synergie entre les deux approches métrologiques est un atout pour améliorer l’architecture des réseaux de neurone, notamment avec des méthodes d’apprentissage basées sur la modélisation des signaux bruts.
Références :
Reflection of Electromagnetic Waves on Moving Dielectric Interfaces for Analyzing Shock Phenomenon in Solids, B. Rougier, H. Aubert, A. Lefrancois, Y. Barbarin, J. Luc, A. Osmont, RadioScience, 2018
Plus particulièrement, l’objectif consistera à approfondir la compréhension et la modélisation des phénomènes de transmission et de réflexion d’une onde électromagnétique se propageant dans un matériau soumis à un choc, à améliorer le travail d’inversion du modèle de propagation à partir de réseaux de neurones afin de pouvoir extraire de manière plus précise la vitesse de choc, la vitesse matérielle et l’indice de réfraction choqué du signal rétrodiffusé dans le matériau et enfin de concevoir des campagnes expérimentales afin d’acquérir des données nous permettant de valider les différents modèles développés.
Evaluation probabiliste des contraintes sur un réseau électrique vis-à-vis d’une agression conduite
La vulnérabilité des systèmes électroniques aux agressions électromagnétiques intentionnelles est une question extrêmement sensible au regard des évolutions technologiques et du déploiement de nombreux équipements électroniques pour la gestion de processus critiques. Les effets d’une contrainte couplée sur un réseau électrique basse tension et de sa propagation dans une installation, à travers le circuit de distribution électrique jusqu’aux équipements terminaux, est un sujet actuel d’intérêt vis-à-vis de ces menaces. La détermination des niveaux de contrainte à l’entrée des équipements est une donnée fondamentale pour l’analyse de cette vulnérabilité, et elle est fonction de nombreuses données d’entrée (position et nombre de câbles d’alimentation, impédances de charge terminales), peu précisément connues et très variables d’une installation à l’autre. Une approche stochastique est donc proposée pour estimer les incertitudes et leurs propagations dans un modèle de réseau électrique.
Les objectifs de cette thèse seront de rechercher et d'étudier les performances de méthodes d’apprentissage pour représenter le problème initial par une fonction simplifiée pour une estimation efficace des distributions probabilistes de niveaux de contrainte ou de la probabilité de dépassement de seuil de susceptibilité. Pour valider la méthode d'apprentissage retenue, une maquette expérimentale représentative d'un réseau de distribution électrique sera réalisée. Les résultats expérimentaux pourront alors être confrontés à ceux de la méthode stochastique sur cette maquette.
De T0 à T0 + 4 mois : choix des méthodes et outils de modélisation et état de l'art sur les méthodes d'apprentissage.
De T0 + 5 mois à T0 + 6 mois : détermination de configurations d'intérêt et de complexité croissante / Définition des incertitudes et hypothèses de distributions. De T0 + 7 mois à T0 + 18 mois : recherche de méthodes d'apprentissage adaptées au problème posé (propagation d'interférences dans les réseaux électriques) et à sa dimension (nombre de variables d'entrée). Déclinaison de la méthode en fonction de l'objectif de distribution de la contrainte ou de probabilité de dépassement de seuil.
De T0+19 mois à T0 + 22 mois : validation théorique et indicateurs de performance, le modèle initial constituant la référence.
De T0 + 23 mois à T0 + 30 mois : réalisation d'essais sur maquette expérimentale et confrontation avec l'approche théorique proposée. De T0 + 31 mois à T0 + 36 mois : rédaction du manuscrit de thèse.
Amélioration d’explosifs par structuration des cristaux avec le procédé d’Evaporation Flash de Spray
De nouvelles voies de formulation de matériaux énergétiques sous forme de granulés de RDX enrobés d’ONTA et d’aluminium enrobé d’ONTA ont été identifiées dans la littérature chinoise et coréenne. La vitesse de détonation annoncée pour un explosif formulé à partir de granulés ONTA-HMX en rapport 1:1 molaire est supérieure à celle de l’octogène avec une sensibilité au choc proche de celle de l’ONTA, ce qui est prometteur dans l’optique de nouveaux explosifs à usage conventionnel.
Nous avons réalisé des simulations thermochimiques de compositions HMX-ONTA-Al à différents taux d’HMX qui montrent une nette amélioration des performances balistiques et de brisance par rapport à l’octogène et la composition PBXN109, sans dégrader les effets de souffle. Ces travaux mettent en exergue une nouvelle voie de formulation permettant d’allier une performance accrue des explosifs et une faible sensibilité (celle de l’ONTA).
La technique d’Evaporation Flash de Spray (SFE en anglais) développée par le laboratoire NS3E (Nanomatériaux pour des Systèmes Sous Sollicitations Extrêmes) sous tutelle de l’ISL, du CNRS et de l’Université de Strasbourg (UAR 3208) permet d’obtenir une structuration de l’explosif à l’échelle micrométrique à nanométrique. La thèse de Maxime Blanchon (2021-2024) a permis de produire les premières structures cœur-coquilles HMX-ONTA avec un ratio molaire 1:1. Les poudres obtenues présentent une sensibilité intermédiaire entre le HMX et l’ONTA avec des performances détoniques en accord avec la thermochimie, tout en conservant la capacité à détoner sous forme de charges de 3 mm de diamètre.
Ce travail constitue un sujet de thèse novateur et en rupture technologique avec ce qui se fait actuellement. Il est proposé de poursuivre ces travaux par une nouvelle thèse pour compléter la caractérisation des matériaux obtenus et les améliorer en jouant sur la nature des constituants et les balances en oxygène, en mesurant les caractéristiques détoniques à petite échelle sur des charges de dimensions centimétriques, en fonction de la densité, puis en étudiant leur comportement détonique (transition vers la détonation) via des expériences de laboratoire et des simulations.
Le travail est réalisé en collaboration entre le centre de Gramat (46) et l'institut de Saint Louis.
1ère année : analyse des expérimentations réalisées sur les structures de Maxime Blanchon, réflexion sur des améliorations des produits
2ième année : réalisation de nouvelles structures et caractérisation
3ième année : Rédaction du manuscrit