Optimisation topologique des performances optiques de µLED

Les performances des micro-LEDs (µLEDs) sont fondamentales pour les micro-écrans, un domaine d’excellence du laboratoire LITE au CEA-LETI. Cependant, simuler ces composants est complexe et coûteux en calculs, en raison de la nature incohérente des sources lumineuses et des géométries impliquées. Cela limite la possibilité d’explorer efficacement des espaces de conception multi-paramètres.

Cette thèse propose de développer une méthode innovante basée sur les éléments finis pour accélérer les simulations tout en rendant possible l’utilisation de l’optimisation topologique. L’objectif est de produire des designs non intuitifs maximisant les performances tout en respectant les contraintes industrielles.

Le travail se divise en deux phases :

Développer une méthode de simulation rapide et fiable, en intégrant des approximations physiques adaptées aux sources incohérentes et en réduisant les temps de calcul d’un facteur significatif.
Concevoir un cadre d’optimisation topologique robuste, intégrant des contraintes de fabricabilité, pour générer des designs immédiatement réalisables.
Les résultats attendus incluent des designs optimisés pour micro-écrans offrant des performances accrues et une méthodologie généralisable à d'autres dispositifs photoniques.

Caractérisation de la récupération motrice au cours d’un processus de rééducation guidé par BCI

Les interfaces cerveau-machine ou BCI (pour Brain Computer Interface) permettent de restaurer une fonction perdue en offrant la possibilité à un individu de contrôler des dispositifs externes grâce à la modulation de son activité cérébrale. Le CEA a développé une technologie de BCI basée sur l’implant WIMAGINE de mesure de l’activité cérébrale par électrocorticographie (ECoG) et sur des algorithmes de décodages des intentions motrices. Cette technologie a initialement été testée pour le contrôle d’effecteurs robotiques de type exosquelette, et de dispositifs de stimulation médullaire pour pallier les pertes motrices graves. Ce paradigme initial de suppléance et de substitution, bien que prometteur, laisse désormais entrevoir un potentiel d’application différent : celui de la récupération fonctionnelle par rééducation guidée par BCI. La littérature actuelle suggère en effet que les BCI, utilisées de manière intensive et bien orientées, peuvent favoriser la plasticité neuronale et, par extension, une amélioration des capacités motrices résiduelles. En particulier, les BCI implantées en électrocorticographie (ECoG) pourrait apporter des gains thérapeutiques significatifs.
L’objectif de cette thèse est donc d’évaluer le potentiel de la technologie BCI du CEA pour favoriser l’amélioration des capacités motrices résiduelles de patients paralysés par plasticité neuronale.
Ce travail sera abordé par une démarche scientifique rigoureuse et multidisciplinaire, comprenant une revue exhaustive de la littérature scientifique, la mise en place et la réalisation d’expérimentations cliniques avec des patients, le développement algorithmique d’outils de suivi et d’analyse de la progression des patients et la publication des résultats significatifs dans des revues scientifiques de haut-niveau.
Cette thèse est destinée à un(e) étudiant(e) spécialisé(e) en ingénierie biomédicale, avec une expertise en traitement de signal et analyse de données physiologiques complexes et une expérience en Python ou Matlab. Un fort intérêt pour l’expérimentation clinique et les neurosciences sera aussi nécessaire. L’étudiant(e) travaillera au sein d’une équipe pluridisciplinaire au sein de CLINATEC, contribuant ainsi à la recherche de pointe dans le domaine des BCIs.

Evaluation probabiliste des contraintes sur un réseau électrique vis-à-vis d’une agression conduite

La vulnérabilité des systèmes électroniques aux agressions électromagnétiques intentionnelles est une question extrêmement sensible au regard des évolutions technologiques et du déploiement de nombreux équipements électroniques pour la gestion de processus critiques. Les effets d’une contrainte couplée sur un réseau électrique basse tension et de sa propagation dans une installation, à travers le circuit de distribution électrique jusqu’aux équipements terminaux, est un sujet actuel d’intérêt vis-à-vis de ces menaces. La détermination des niveaux de contrainte à l’entrée des équipements est une donnée fondamentale pour l’analyse de cette vulnérabilité, et elle est fonction de nombreuses données d’entrée (position et nombre de câbles d’alimentation, impédances de charge terminales), peu précisément connues et très variables d’une installation à l’autre. Une approche stochastique est donc proposée pour estimer les incertitudes et leurs propagations dans un modèle de réseau électrique.

Les objectifs de cette thèse seront de rechercher et d'étudier les performances de méthodes d’apprentissage pour représenter le problème initial par une fonction simplifiée pour une estimation efficace des distributions probabilistes de niveaux de contrainte ou de la probabilité de dépassement de seuil de susceptibilité. Pour valider la méthode d'apprentissage retenue, une maquette expérimentale représentative d'un réseau de distribution électrique sera réalisée. Les résultats expérimentaux pourront alors être confrontés à ceux de la méthode stochastique sur cette maquette.

De T0 à T0 + 4 mois : choix des méthodes et outils de modélisation et état de l'art sur les méthodes d'apprentissage.
De T0 + 5 mois à T0 + 6 mois : détermination de configurations d'intérêt et de complexité croissante / Définition des incertitudes et hypothèses de distributions. De T0 + 7 mois à T0 + 18 mois : recherche de méthodes d'apprentissage adaptées au problème posé (propagation d'interférences dans les réseaux électriques) et à sa dimension (nombre de variables d'entrée). Déclinaison de la méthode en fonction de l'objectif de distribution de la contrainte ou de probabilité de dépassement de seuil.
De T0+19 mois à T0 + 22 mois : validation théorique et indicateurs de performance, le modèle initial constituant la référence.
De T0 + 23 mois à T0 + 30 mois : réalisation d'essais sur maquette expérimentale et confrontation avec l'approche théorique proposée. De T0 + 31 mois à T0 + 36 mois : rédaction du manuscrit de thèse.

Etudes avancées de la Représentation Sémantique, de l'Alignement et du Raisonnement dans les Systèmes de Communication Multi-Agents pour les Réseaux 6G

Les communications sémantiques représentent un domaine de recherche émergent et transformateur, où l'objectif se déplace de la transmission de simples données brutes à celle d'informations significatives. Bien que les premiers modèles et solutions de conception aient établi des principes fondamentaux, ils reposent souvent sur des hypothèses fortes concernant l'extraction, la représentation et l'interprétation du contenu sémantique. L'arrivée des réseaux 6G introduit de nouveaux défis, en particulier avec le besoin croissant de systèmes multi-agents où plusieurs agents pilotés par l'intelligence artificielle (IA) interagissent de manière fluide.
Dans ce contexte, le défi de l'alignement sémantique devient crucial. La littérature existante sur les communications sémantiques multi-agents suppose fréquemment que tous les agents partagent un cadre d'interprétation et de compréhension commun, ce qui est rarement le cas dans des scénarios pratiques. Des représentations mal alignées peuvent entraîner des inefficacités de communication, une perte d'informations critiques et des malentendus.
Cette recherche doctorale vise à faire progresser l'état de l'art en explorant les principes de représentation sémantique, d'alignement et de raisonnement dans des environnements multi-agents IA au sein des réseaux de communication 6G. L'étude examinera comment les agents peuvent aligner dynamiquement leurs modèles sémantiques, garantissant une interprétation cohérente des messages tout en tenant compte des différences de contexte, d'objectifs et de connaissances préalables. En s'appuyant sur des techniques issues de l'intelligence artificielle, telles que l'apprentissage automatique, l'alignement d'ontologies et le raisonnement multi-agents, l'objectif est de proposer des cadres novateurs qui améliorent l'efficacité et l'efficience des communications dans des environnements multi-agents. Ce travail contribuera à des systèmes de communication plus adaptatifs, intelligents et sensibles au contexte, essentiels à l'évolution des réseaux 6G.

Amélioration de la sécurité des communications grâce à la conception d'émetteurs-récepteurs plus rapides que Nyquist

Face à la demande croissante en capacité de transmission des réseaux de communication, il est essentiel d'explorer des techniques innovantes qui augmentent l'efficacité spectrale tout en maintenant la fiabilité et la sécurité des liens de transmission. Ce projet propose une modélisation théorique approfondie des systèmes Faster-Than-Nyquist (FTN) accompagnée de simulations et d'analyses numériques afin d’évaluer leurs performances dans différents scénarios de communication. L'étude s'efforcera d'identifier les compromis nécessaires pour maximiser le débit de transmission, tout en tenant compte des contraintes liées à la complexité de mise en œuvre et à la sécurité des transmissions, un enjeu crucial dans un environnement de plus en plus vulnérable aux cybermenaces. Ce travail permettra d’identifier les opportunités d'augmentation de capacité, tout en mettant en évidence les défis technologiques et les ajustements indispensables à une adoption généralisée de ces systèmes pour des liaisons critiques et sécurisées.

Simulation numérique de l’impact entre structures immergées dans un liquide compressible par des approches de type frontières immergées.

De nombreux systèmes industriels mettent en jeu des structures immergées dans des fluides denses. On peut ainsi mentionner l’industrie sous-marine ou, plus particulièrement, le cas de certains réacteurs nucléaires de 4ème génération utilisant des caloporteurs comme le sodium ou des mélanges de sels. L’effet de l’interaction du fluide environnant sur les forces de contact entre les structures est un phénomène de première importance, notamment lors de scenarios transitoires accidentels pouvant générer de grands déplacements des structures dont l’intégrité résiduelle doit être démontrée à des fins de sûreté.

Dans le cadre de cette thèse, on s’intéresse, en particulier, à la modélisation de l’impact rapide d’un fragment de structure immergé dans un fluide contre une paroi, résultant par exemple d’un phénomène explosif dans une cuve de réacteur nucléaire refroidi au sodium. Dans ce contexte, le sodium modélisé comme un fluide compressible est traité numériquement par une approche de type volumes-finis. Les structures internes du réacteur sont traitées par une approche de type éléments-finis. Afin de permettre le traitement des grands déplacements de structure et une éventuelle fracturation de celle-ci, on se tourne vers des techniques de type « frontières immergées » pour l’interaction entre le fluide et la structure.

Les travaux de thèse consistent à venir définir une méthode numérique innovante permettant de mieux simuler le film fluide entre deux structures qui rentrent en contact dans ce contexte. Dans un premier temps, on s’attachera à identifier les caractéristiques physiques de l’écoulement au niveau du film fluide (compressibilité, viscosité, …) ayant le plus d’influence sur la cinématique des structures. Ensuite, le principal enjeu de ces travaux de thèse consistera à faire évoluer les méthodes numériques en vigueur afin de venir représenter le plus fidèlement possible les caractéristiques de l’écoulement du film fluide.

La thèse proposée se déroulera au CEA de Saclay, en collaboration étroite avec le laboratoire EM2C de l’école CentraleSupélec, dans l’environnement de l’Université Paris-Saclay. Le doctorant sera ainsi immergé dans une équipe à l’expertise reconnue dans le domaine des simulations transitoires en interaction fluide-structure.

Méthodes Monte-Carlo pour la sensibilité aux paramètres géométriques en physique des réacteurs

La méthode Monte-Carlo est considérée comme l'approche la plus précise pour simuler le transport de neutrons dans le cœur d'un réacteur, puisqu’elle ne nécessite pas ou très peu d'approximations et peut facilement traiter des formes géométriques complexes (aucune discrétisation n'est impliquée). Un défi particulier pour la simulation Monte-Carlo dans les applications de la physique des réacteurs est de calculer l'impact d'un petit changement de modèle sur ses paramètres : formellement, il s'agit de calculer la dérivée d'une observable par rapport à un paramètre donné. Dans un code Monte-Carlo, l'incertitude statistique est considérablement amplifiée lors du calcul d'une différence de valeurs similaires. Par conséquent, plusieurs techniques Monte-Carlo ont été développées afin d’estimer des perturbations directement. Toutefois, la question du calcul des perturbations induites par un changement dans la géométrie du réacteur reste fondamentalement un problème ouvert. L'objectif de cette thèse est d'étudier les avantages et les failles des méthodes de perturbation géométrique existantes et de proposer de nouvelles voies pour calculer les dérivées des paramètres du réacteur par rapport aux changements de sa géométrie. Le défi est double. Premièrement, il faudra concevoir des algorithmes pouvant calculer efficacement la perturbation géométrique elle-même. Deuxièmement, les approches proposées devront être adaptées aux architectures informatiques de la simulation à haute performance(HPC).

Développement d’une méthode de propagation d’incertitudes de type fonctionnel sur la puissance résiduelle

La puissance résiduelle est l’énergie dégagée par la désintégration des radionucléides présents dans le cœur d’un réacteur à l’arrêt. Une connaissance précise de sa valeur moyenne et de sa plage de variations revêt un aspect important pour le design et la sûreté des systèmes de transport et d’entreposage du combustible. Ces informations ne pouvant être mesurées de manière exhaustive, on utilise des outils de simulation numérique pour estimer la valeur nominale de la puissance résiduelle et quantifier ses variations dues aux incertitudes sur les données nucléaires.
Dans cette thèse, on se propose de quantifier les variations de la puissance résiduelle induite par les données de fonctionnement du réacteur, notamment les historiques de puissance, soit la puissance instantanée des assemblages de combustible lors de leur séjour en cœur. Ce travail revêt un challenge particulier puisque les données d’entrée ici ne sont plus des grandeurs scalaires mais des fonctions dépendant du temps. Pour cela, un modèle de substitution de l’outil de calcul scientifique sera développé afin de réduire le temps de calcul. La modélisation globale du problème sera réalisée dans un cadre bayésien à l’aide d’approches de réduction de modèle associées à des méthodes multifidélité. L’inférence bayésienne permettra in fine de résoudre un problème inverse pour quantifier les incertitudes induites par les historiques de puissance.

Le doctorant intègrera l’équipe du Laboratoire des Projets Nucléaires de l’institut IRESNE du CEA Cadarache. Il développera des compétences en simulation neutronique, science des données et réacteurs nucléaires. Il sera amené à présenter ses travaux périodiquement et les publiera dans des revues à comité de lecture.

Influence de la synthèse sur la modélisation des mécanismes de stockage du sodium dans le carbone dur

Les batteries sodium-ion (Na-ion) suscitent un intérêt considérable en tant qu'alternative crédible aux batteries lithium-ion largement utilisées aujourd'hui. L'abondance du sodium, ainsi que l'utilisation potentielle de matériaux d'électrode sans éléments critiques dans leur composition, ont conduit à l'intensification de la recherche sur les batteries Na-ion. Le carbone dur (HC) est identifié comme l'électrode négative la plus appropriée pour cette technologie. Il n’existe toutefois pas de consensus concernant les mécanismes de stockage du sodium dans le HC, parce que les multiples précurseurs et méthodes de synthèse conduisent à des HC singulièrement différents qui ne fonctionnent évidemment pas de la même façon. Une grande base de données fournit des relations entre les paramètres de synthèse (précurseur, lavage, prétraitement, pyrolyse, broyage) et les propriétés du HC (porosité, structure, morphologie, chimie de surface, défauts), mais elle n’explique pas ces relations. Par conséquent, l'approche envisagée dans cette thèse est une modélisation multiphysique des performances du HC permettant de comprendre l'influence du précurseur et de la méthode de synthèse, en exploitant la grande base de données de caractérisation existante.

Modélisation du flux critique à l’aide des méthodes de Boltzmann sur réseau : application aux dispositifs expérimentaux du RJH

Les méthodes LBM (Lattice Boltzmann Methods) sont des techniques numériques utilisées pour simuler des phénomènes de transport dans des systèmes complexes. Elles permettent de modéliser le comportement des fluides en termes de particules qui se déplacent sur une grille discrète (un "réseau" ou lattice). Contrairement aux méthodes classiques, qui résolvent directement les équations différentielles des fluides, les méthodes LBM simulent l'évolution des fonctions de distribution des particules de fluide dans un espace discret, en utilisant des règles de propagation et de collision.
Le choix du réseau dans les méthodes LBM est une étape cruciale, car il affecte directement la précision, l'efficacité et la stabilité des simulations. Le réseau détermine la manière dont les particules de fluide interagiront et se déplaceront dans l'espace, ainsi que la façon dont la discrétisation de l'espace et du temps est effectuée.

Les méthodes LBM présentent un parallélisme naturel, car les calculs à chaque point de la grille sont relativement indépendants. Bien que les méthodes classiques de CFD, basées sur la résolution des équations de Navier-Stokes, puissent aussi être parallélisées, les termes non linéaires peuvent rendre le parallélisme plus difficile à gérer, en particulier pour les modèles impliquant des écoulements turbulents ou des maillages irréguliers. Les méthodes LBM permettent donc, à moindre coût, de capturer des phénomènes complexes. Des travaux récents ont notamment montré qu'il était possible, avec les LBM, de retrouver la courbe de refroidissement de Nukiyama (ébullition en vase) et, ainsi, de calculer avec précision le flux critique. Ce flux correspond à une ébullition en masse, appelée crise d’ébullition, qui se traduit par une dégradation soudaine du transfert thermique.

Le flux critique représente un enjeu crucial pour le Réacteur Jules Horowitz, car les dispositifs expérimentaux (DEX) sont refroidis par de l'eau en convection naturelle ou forcée. Ainsi, afin de garantir le bon refroidissement des DEX et la sûreté du réacteur, il convient de s'assurer que, sur la gamme de paramètres étudiés, le flux critique ne soit pas atteint. Il doit donc être déterminé avec précision.

L'étudiant sera amené, dans un premier temps, à définir un réseau pour appliquer les méthodes LBM sur un dispositif du RJH en convection naturelle. Il consolidera les résultats obtenus en les comparant aux données disponibles. Enfin, des calculs exploratoires en convection forcée (régime laminaire à turbulent) seront menés.

Top