Développement d’un outil de simulation d’activité salle blanche

Lors d’un précédent stage, un outil de simulation d’exécution des lots en salle blanche a été développé. Cet outil tient compte des temps de process sur les équipements, des pannes d’équipement et de certains holds liés à l’intégration. Les lots injectés dans ce simulateur viennent de l’historique réel de la salle blanche.
Le but de la thèse est de développer un simulateur qui permette, de manière prospective, de simuler l’exécution des lots à partir de routes POR des principales thématiques présentes ou à venir dans la salle blanche. A partir des routes POR, l’outil doit être capable de générer des lots de développement des briques technos (short loops), mais également des lots fonctionnels incluant des plaques essais et des plaques pilotes. Un travail de nomenclature et d’enrichissement des routes au travers de métadonnées devra être mené afin de permettre à l’outil de générer des lots de manière réaliste, à la fois en terme de process, mais également de planning projet.
Différents moteurs de simulation seront comparés, en termes de performance et de précision. Des moteurs de résolution classiques (simulation discrète, évènementielle, par graphes conjonctifs) ainsi que des approches novatrices (reinforcement learning principalement, mais aussi supervised learning) seront étudiés.
Le développement et la publication d’une méthodologie de création d’instances de simulation (testbed) sera également menée lors de ces travaux de thèse.

Modélisation de la Condensation en Paroi et des Interactions avec le Film Liquide

Dans cette thèse, on s’intéresse à la modélisation des transferts de masse et d’énergie associés à la condensation pariétale pour un écoulement turbulent d’un mélange de vapeur et de gaz incondensables. L’écoulement est diphasique, en régime turbulent, où les modes de convection forcée, mixte et naturelle peuvent être rencontrés. Le cadre de ce travail est l’approche RANS des équations de Navier–Stokes compressibles, où la condensation en paroi sera décrite par des fonctions de paroi semi-analytiques développées dans un précédent travail de thèse cite{iziquel2023}. Ces fonctions intègrent les différents modes de convection ainsi que les phénomènes d’aspiration et d’interdiffusion des espèces, mais négligent la présence du film liquide.

Dans la littérature, l’effet de la formation et de l’écoulement du film liquide sur les transferts de masse et d’énergie est souvent négligé, car on considère qu’en présence de gaz incondensables, la résistance de la couche gazeuse à la diffusion de la vapeur est nettement plus importante que la résistance thermique du film liquide.

L’objectif de cette thèse est d’améliorer la prédiction des transferts thermique et massique par l’investigation, au-delà de la résistance thermique du condensat, de l’effet dynamique du liquide et de son interaction avec la couche gazeuse de diffusion lors de la condensation pariétale, en considérant d’abord un écoulement de film laminaire, puis en tentant de prendre en compte le régime turbulent.

Dans la phase gazeuse, le modèle de fonctions de paroi développé dans la thèse de A. Iziquel (2023) pour un mélange binaire de vapeur et d’un gaz incondensable sera étendu aux mélanges de vapeur et de $n>1$ gaz incondensables (N2, H2, …) afin de traiter la thématique du risque hydrogène.

La validation des modèles implantés sera effectuée sur la base de résultats d’expériences à effets séparés (SET) et à effets couplés (CET) disponibles dans la littérature (Huhtiniemi, COPAIN, ISP47-MISTRA, ISP47-TOSQAN, RIVA). Les comparaisons à l’échelle CFD, avec des fonctions de paroi pour la condensation négligeant le film sur des cas tests de la littérature et des expériences de condensation (COPAIN), permettront d’évaluer l’impact de cette hypothèse ainsi que l’apport de la nouvelle modélisation en termes de précision et de coût de calcul.

Modélisation des phénomènes thermo-aérauliques dans la tuyère plasma du procédé ELIPSE

Le procédé ELIPSE (Élimination de LIquides par Plasma Sous Eau) est une technologie innovante dédiée à la minéralisation des effluents organiques. Il repose sur la génération d’un plasma thermique en immersion totale dans une enceinte réacteur remplie d’eau, permettant d’obtenir des températures très élevées et des conditions réactives favorables à la décomposition complète des composés organiques.
Le travail de thèse proposé a pour objectif le développement d’un modèle numérique multi-physique décrivant le comportement du procédé, en particulier dans la tuyère plasma, zone clé où le jet gazeux à haute température issu de la torche interagit avec les liquides injectés.
La démarche reposera sur la modélisation thermo-aéraulique couplée, intégrant la dynamique des écoulements, les transferts thermiques, les changements de phase et la turbulence. L’utilisation d’outils de simulation numérique (CFD) permettra de caractériser les mécanismes d’interaction plasma/liquide et d’optimiser la géométrie et les conditions opératoires du procédé. Cette modélisation sera confrontée et validée par des expérimentations complémentaires, réalisées sur le procédé ELIPSE, afin d’acquérir les données nécessaires à la calibration et à la validation du modèle numérique.
Ces travaux s’inscrivent en complément de recherches antérieures ayant conduit à l’élaboration de modèles du comportement thermique et hydraulique de la torche plasma et de l’enceinte réacteur. L’intégration du modèle développé au sein de cet ensemble permettra d’aboutir à une représentation globale et cohérente du procédé ELIPSE. Une telle approche constitue une étape déterminante en vue de l’optimisation du procédé et de son passage à l’échelle industrielle.
Le profil recherché pour ce projet est celui d’un(e) étudiant(e) en dernière année de master ou d’école d’ingénieur, issu(e) d’une formation en génie des procédés et/ou en simulation numérique, disposant d’un goût prononcé pour la modélisation.
Au cours de cette thèse, le doctorant développera et renforcera ses compétences en modélisation numérique multi-physique, en simulation CFD avancée et en analyse thermo-aéraulique de procédés complexes. Il acquerra également une solide expérience dans le traitement des déchets, thématique en plein essor au niveau industriel et environnemental. Ces compétences offriront de réelles opportunités professionnelles dans les domaines de la recherche appliquée, de l’ingénierie des procédés, de l’énergie et de l’environnement.

Formation des magnétars : de l’amplification à la relaxation des champs magnétiques les plus extrêmes

Les magnétars sont les étoiles à neutrons arborant les plus forts champs magnétiques connus dans l’Univers, observées comme des sources galactiques de haute énergie. La formation de ces objets figure parmi les scénarios les plus étudiés pour expliquer certaines des explosions les plus violentes : les supernovae superlumineuses, les hypernovae et les sursauts gamma. Notre équipe a réussi au cours des dernières années à reproduire numériquement des champs magnétiques d’une intensité comparable à celle des magnétars en simulant des mécanismes d'amplification dynamo qui se développent dans les premières secondes après la formation de l’étoile à neutrons. La plupart des manifestations observationnelles des magnétars nécessitent cependant que le champ magnétique survive sur des échelles de temps bien plus longues (de quelques semaines pour les supernovae superlumineuses à des milliers d’années pour les magnétars galactiques). Cette thèse consistera à développer des simulations numériques 3D de relaxation du champ magnétique initialisées à partir de différents états dynamo calculés précédemment par l’équipe, en les prolongeant vers des stades plus tardifs après la naissance de l’étoile à neutrons lorsque la dynamo n’est plus active. L’étudiant.e déterminera ainsi comment le champ magnétique turbulent généré dans les premières secondes va évoluer pour éventuellement atteindre un état d’équilibre stable, dont on cherchera à caractériser la topologie et à le confronter aux observations électromagnétiques.

Conception et développement d’algorithmes asynchrones pour la résolution de l’équation du transport des neutrons sur des architectures massivement parallèles et hétérogènes

Cette proposition de thèse s’inscrit dans le cadre de la résolution numérique d’équations aux dérivées partielles par le biais d’une discrétisation des variables. Elle s’intéresse, dans un formalisme d’éléments finis, à travailler sur la conception d’algorithmes au travers de modèles de programmation parallèle et asynchrone pour la résolution de ces équations.
Le cadre industriel applicatif est la résolution de l’équation de Boltzmann appliquée au transport des neutrons dans le cœur d’un réacteur nucléaire. Dans ce contexte, beaucoup de codes modernes de simulations’appuient sur une discrétisation par éléments finis (plus précisément, un schéma Galerkin discontinu décentré amont) pour des maillages cartésiens ou hexagonaux du domaine spatial. L’intérêt de ce travail de thèse prolonge des travaux précédents pour explorer leur extension dans un cadre d’architecture distribuée qui n’ont pas été abordé jusque-là dans notre contexte. Il s’agira de coupler des stratégies algorithmiques et numériques pour la résolution du problème à un modèle de programmation qui expose du parallélisme asynchrone.
Ce sujet s’inscrit dans le cadre de la simulation numérique des réacteurs nucléaires. Ces simulations multiphysiques coûteuses requièrent le calcul du transport des neutrons en cinétique qui peuvent être associées à des transitoires de puissance violents. La stratégie de recherche adopté pour cette thèse permettra de gagner en coût de calcul, et alliée à un modèle massivement parallèle, peut définir les contours d’un solveur neutronique efficace pour ces problèmes multiphysiques.
Un travail réussi dans le cadre de cette thèse permettra à l’étudiant de prétendre à un poste de recherche en simulation et analyse numérique de problèmes physiques complexes, par-delà la seule physique des réacteurs nucléaires.

Magnéto-convection des étoiles de type solaire: émergence du flux et origine des taches stellaires

Le Soleil et les étoiles de type solaire possèdent un magnétisme riche et variable. Nous avons pu mettre en évidence dans nos travaux récents sur les dynamos turbulentes convectives de ce type d' étoiles, une histoire magnéto-rotationelle de leur évolution séculaire. Les étoiles naissent active avec des cycles magnétiques courts, puis en décélérant par le freinage du à leur vent de particules magnétisé, leur cycle magnétique s'allonge pour devenir commensurable à celui du Soleil (d'une durée de 11 ans) et enfin pour les étoiles vivant suffisamment longtemps finir avec une perte de cycle et une rotation dite anti-solaire (équateur lent/poles rapides). L'accord avec les observations est excellent mais il nous manque un élément essentiel pour conclure: Quel role jouent les taches solaires/stellaires dans l'organisation du magnétisme de ces étoiles et sont-elles nécessaires à l'apparition d'un cycle magnétique, ce qui s'appelle "le paradox des dynamos cycliques sans tache". En effet, nos simulations HPC de dynamo solaire n'ont pas la résolution angulaire pour résoudre les taches et pourtant nous observons bien des cycles dans nos simulation de dynamos stellaires pour des nombres de Rossby < 1. Dès lors les taches sont-elle une simple manifestations de surface d'une auto-organisation interne du magnétisme cyclique de ces étoiles, ou jouent-elle un rôle déterminant. De plus, comment l'émergence de flux en latitude et la taille et intensité des taches se formant à la surface évoluent ils au cours de l'évolution magnéto-rotationelle de ces étoiles? Pour répondre à cette question essentielle en magnétisme des étoiles et du Soleil, il faut développer de nouvelles simulations HPC de dynamo stellaire en soutien aux missions spatiales Solar Orbiter et PLATO pour lesquelles nous sommes directement impliqués, permettant de s'approcher plus près de la surface et ainsi de mieux décrire le processus d'émergence de flux magnétique et la possible formation de taches solaires. Des tests récents montrant que des concentrations magnétiques inhibant la convection de surface localement se forment ab-initio dans des simulations avec un nombre de Reynolds magnétique plus grand et une convection de surface plus petites échelles nous encourage fortement à poursuivre ce projet au delà de l'ERC Whole Sun (finissant en Avril 2026). Grace au code Dyablo-Whole Sun que nous co-développons avec le IRFU/Dedip, nous désirons étudier en détails la dynamo convective, l'émergence de flux magnétique et la formation auto-cohérente de taches résolues, en utilisant sa capacité de raffinement de maillage adaptative et en variant les paramètres globaux stellaire comme le taux de rotation, l'épaisseur de la zone convective, et l'intensité de la convection de surface, afin de déterminer comment leur nombre, morphologie et latitude d'émergence changent et s'ils contribuent ou non à la fermeture de la boucle dynamo cyclique.

Schéma décalé pour les équations de Navier-Stokes avec des mailles de forme générale

La simulation des équations de Navier-Stokes demande de disposer de méthodes numériques précises et robustes prenant en compte des opérateurs de diffusions, des termes de gradient et de convection. Les approches opérationnelles ont montré leur efficacité sur des simplexes. Cependant, dans certaines modélisations ou certains codes (TrioCFD, Flica5), il peut être utile d’améliorer localement la précision des solutions à l’aide d’un estimateur d’erreur ou bien de prendre en compte des mailles de forme générale.
Rappelons que nous nous intéressons ici à des schémas décalés. Cela signifie que la pression est calculée au centre des mailles et les vitesses sur les arêtes (ou les faces) du maillage. On obtient alors des méthodes naturellement précises à bas nombre de Mach.
De nouveaux schémas ont été présentés récemment dans ce contexte et ont montré leur robustesse et leur précision. Cependant, ces discrétisations peuvent être très coûteuses en place mémoire et en temps calcul en comparaison aux schémas MAC sur des maillages réguliers.
Nous nous intéressons aux méthodes de type « gradient ». Certaines d’entre elles reposent sur une formulation variationnelle avec des inconnues de pression aux centres des mailles et des inconnues de vecteur vitesse sur les arêtes (ou les faces) des cellules. Cette approche a montré son efficacité, particulièrement en termes de robustesse.
Notons également qu’un algorithme avec les mêmes degrés de libertés que les méthodes MAC a été proposé et donne des résultats prometteurs.
L’idée serait donc de combiner ces deux approches, à savoir la méthode « gradient » avec les mêmes degrés de libertés que les méthodes MAC. Dans un premier temps, on s’attachera à retrouver les schémas MAC sur les maillages réguliers. Des questions fondamentales doivent être examinées dans le cas de maillages généraux : stabilité, consistance, conditionnement du système à inverser, verrouillage numérique.
On pourra également essayer de retrouver les gains en précisions obtenus à l’aide des méthodes pour discrétiser les gradients de pression.
Au cours de la thèse, on prendra le temps de régler les problèmes de fond de cette méthode (première et seconde année), à la fois sur les aspects théoriques et sur la mise en oeuvre informatique. Cette dernière pourra être effectuée dans les environnements de développement Castem, Trust/TrioCFD, ou POLYMAC. On s’intéressera alors aux cas d’application représentatifs de la communauté.

Inférence des paramètres cosmologiques à l’aide de prédictions théoriques des statistiques en ondelettes.

Lancé en 2023, le satellite Euclid observe le ciel dans les longueurs d'onde optiques et infrarouges pour cartifier la structure à grande échelle de l'Univers avec une précision inédite. Un pilier fondamental de sa mission est la mesure du cisaillement gravitationnel faible — de subtiles distorsions dans la forme des galaxies lointaines. Ce phénomène constitue une sonde cosmologique puissante, capable de retracer l'évolution de la matière noire et d'aider à distinguer les théories sur l'énergie noire de celles de la gravité modifiée. Traditionnellement, les cosmologues analysent les données de cisaillement faible à l'aide de statistiques du second ordre (comme le spectre de puissance) couplées à un modèle de vraisemblance gaussien. Cette approche établie rencontre cependant des défis significatifs :
- Perte d'information : Les statistiques du second ordre ne capturent toute l'information disponible que si la distribution de matière sous-jacente est gaussienne. En réalité, la toile cosmique est une structure complexe, composée d'amas, de filaments et de vides, ce qui rend cette approche intrinsèquement incomplète.
- Covariance complexe : La méthode nécessite l'estimation d'une matrice de covariance, qui est à la fois dépendante de la cosmologie et non-gaussienne. Ceci exige de réaliser des milliers de simulations numériques de type N-corps, extrêmement coûteuses en calcul, pour chaque modèle cosmologique, un effort souvent prohibitif.
- Effets systématiques : L'intégration des complications observationnelles — telles que les masques de survey, l'alignement intrinsèque des galaxies, et les effets de rétroaction baryonique — dans ce cadre théorique est notoirement difficile.

Face à ces limitations, un nouveau paradigme a émergé : l'inférence sans vraisemblance par modélisation directe (forward modelling). Cette technique contourne le besoin d'une matrice de covariance en comparant directement les données observées à des observables synthétiques générés par un modèle direct (forward model). Ses avantages sont profonds : elle élimine le fardeau de stockage et de calcul lié aux vastes ensembles de simulations, intègre naturellement l'information statistique d'ordre supérieur, et permet d'inclure de manière transparente les effets systématiques. Cependant, cette nouvelle méthode présente ses propres obstacles : elle demande des ressources de calcul (GPU) immenses pour traiter des surveys de l'envergure d'Euclide, et ses conclusions ne sont aussi fiables que les simulations sur lesquelles elle s'appuie, ce qui peut mener à des débats circulaires si les simulations et les observations divergent.

Une percée récente (Tinnaneni Sreekanth, 2024) ouvre une voie prometteuse. Ces travaux fournissent le premier cadre théorique permettant de prédire directement les principales statistiques en ondelettes des cartes de convergence — exactement le type de cartes qu'Euclide produira — pour un jeu de paramètres cosmologiques donné. Il a été démontré dans Ajani et al. (2021) que la norme L1 des coefficients en ondelettes est extrêmement puissante pour contraindre les paramètres cosmologiques. Cette innovation promet d'exploiter la puissance des statistiques non-gaussiennes avancées sans le surcoût computationnel traditionnel, ouvrant potentiellement la voie à une nouvelle ère de cosmologie de précision.
Nous avons démontré que cette prédiction théorique peut être utilisée pour construire un émulateur hautement efficace (Tinnaneni Sreekanth et al., 2025), accélérant considérablement le calcul de ces statistiques non-gaussiennes. Il est crucial de noter qu'à son stade actuel, cet émulateur ne fournit que la statistique moyenne et n'inclut pas la variance cosmique. En l'état, il ne peut donc pas encore être utilisé seul pour une inférence statistique complète.

Objectif de cette thèse de doctorat:
Cette thèse de doctorat vise à révolutionner l'analyse des données de cisaillement faible en construisant un cadre complet et intégré pour l'inférence cosmologique sans vraisemblance. Le projet commence par adresser le défi fondamental de la stochasticité : nous calculerons d'abord la covariance théorique des statistiques en ondelettes, fournissant une description mathématique rigoureuse de leur incertitude. Ce modèle sera ensuite intégré dans un générateur de cartes stochastiques, créant ainsi des données synthétiques réalistes qui capturent la variabilité intrinsèque de l'Univers.
Pour garantir la robustesse de nos résultats, nous intégrerons une suite complète d'effets systématiques — tels que le bruit, les masques observationnels, les alignements intrinsèques et la physique baryonique — dans le modèle direct. Le pipeline complet sera intégré et validé au sein d'un cadre d'inférence basée sur les simulations, en testant rigoureusement sa capacité à retrouver des paramètres cosmologiques non biaisés. L'aboutissement de ce travail sera l'application de notre outil validé aux données de cisaillement faible d'Euclide, où nous exploiterons l'information non-gaussienne pour poser des contraintes compétitives sur l'énergie noire et la gravité modifiée.

References
V. Ajani, J.-L. Starck and V. Pettorino, "Starlet l1-norm for weak lensing cosmology", Astronomy and Astrophysics,  645, L11, 2021.
V. Tinnaneri Sreekanth, S. Codis, A. Barthelemy, and J.-L. Starck, "Theoretical wavelet l1-norm from one-point PDF prediction", Astronomy and Astrophysics,  691, id.A80, 2024.
V. Tinnaneri Sreekanth, J.-L. Starck and S. Codis, "Generative modeling of convergence maps based in LDT theoretical prediction", Astronomy and Astrophysics,  701, id.A170, 2025.

Modélisation d'une diode magnonique basée sur la non-réciprocité des ondes de spin dans les nanofils et les nanotubes

Ce projet de doctorat porte sur le phénomène émergent de non-réciprocité des ondes de spin dans les fils magnétiques cylindriques, de leurs propriétés fondamentales jusqu'à leur exploitation pour la réalisation de dispositifs à base de diodes magnoniques. Des expériences préliminaires menées dans notre laboratoire SPINTEC sur des fils cylindriques, avec une aimantation axiale dans le cœur et azimutale à la surface du fil, ont révélé un effet asymétrique géant (courbes de dispersion asymétriques avec des vitesses et des périodes différentes pour les ondes se propageant vers la gauche et vers la droite), créant même une bande interdite pour une direction de mouvement donnée, liée à la circulation de la magnétisation (vers la droite ou vers la gauche). Cette situation particulière n'a pas encore été décrite théoriquement ni modélisée, ce qui constitue un terrain inexploré et prometteur pour ce projet de doctorat. Pour modéliser la propagation des ondes de spin et dériver les courbes de dispersion pour un matériau donné, nous prévoyons d'utiliser divers outils numériques : notre logiciel micromagnétique 3D par éléments finis feeLLGood et le logiciel 2D open source TetraX dédié aux calculs de modes propres et spectres associés. Ce travail sera mené en étroite collaboration avec des expérimentateurs, dans le but à la fois d'expliquer les résultats expérimentaux et d'orienter les futures expériences et les axes de recherche.

Mécanismes de communications unidirectionnelles pour la décomposition de données des applications de transport de particules Monte-Carlo

Dans le cadre d’un calcul Monte-Carlo d’évolution d’un cœur de REP (réacteur à eau pressurisée), il est nécessaire de calculer un très grand nombre de taux de réaction neutron-noyau, impliquant un volume de données pouvant dépasser la capacité mémoire d’un nœud de calcul sur les supercalculateurs actuels. Dans le cadre de Tripoli-5, les architectures à mémoire distribuée ont été identifiées comme cible pour le déploiement de calcul à haute performance. Pour exploiter de telles architectures il convient donc d’utiliser des approches de décomposition de données, notamment sur les taux de réaction. Toutefois, avec une méthode de parallélisation classique, les processus n’ont pas d’affinité particulière pour les taux qu’ils hébergent localement ; au contraire, chaque taux reçoit des contributions de manière uniforme de tous les processus. Les accès aux données décomposées peuvent s’avérer coûteux quand ces derniers imposent une utilisation intensive des communications. Toutefois, des mécanismes de communications unidirectionnelles comme par exemple les MPI RMA (Message Passing Interface, Remote Memory Access) permettent de faciliter ses accès aussi bien en termes d’expressions que de performances.
L’objectif de cette thèse est de proposer une méthode de décomposition partielle de données en s’appuyant sur des mécanismes de communications unidirectionnelles pour accéder aux données stockées à distance, telles que les taux de réaction. Une telle approche permettra de réduire considérablement le volume de donnée stocké en mémoire sur chaque nœud de calcul sans engendrer une forte dégradation des performances.

Top