Dynamique de faisceau pour un accélérateur laser-plasma multi-étages

Les accélérateurs laser-plasma à champs de sillage (LWFAs) peuvent produire des gradients d'accélération supérieurs à 100 GV/m, ouvrant la voie à la réduction de la taille et du coût des futurs accélérateurs haute énergie pour des applications en rayonnement synchrotron, lasers à électrons libres, ainsi que des applications médicales et industrielles émergentes.
L’augmentation de l’énergie et de la charge du faisceau nécessite à la fois une maturité technologique et des schémas d'accélération innovants. Les configurations multi-étages — connectant plusieurs étages d'accélération plasma — offrent des avantages clés : augmenter l'énergie du faisceau au-delà des limites d'une cellule unique et améliorer la charge totale et/ou la cadence de répétition. Ces systèmes visent à surmonter les limitations des accélérateurs mono-étage tout en maintenant ou améliorant la qualité du faisceau à plus hautes énergies.
Concevoir un accélérateur délivrant des faisceaux stables, reproductibles et de haute qualité nécessite une compréhension approfondie de la physique de l'accélération plasma et du transport de faisceau entre les étages successifs.
S'appuyant sur l'expertise du DACM du CEA Paris-Saclay, cette thèse se concentrera sur les études physiques et numériques nécessaires pour proposer une conception intégrée d'un LWFA multi-étages, avec une attention particulière à l'optimisation de tous les composants —cellule plasma et lignes de transport — afin de préserver la qualité du faisceau en termes de taille transverse, divergence, émittance et dispersion en énergie.

Simulation à grande échelle et apprentissage automatique dans la structure du nucléon?

Cette proposition de thèse porte sur la structure tridimensionnelle du nucléon à travers les distributions de partons généralisées (GPD). Les GPD permettent d’accéder à la répartition spatiale des quarks et gluons ainsi qu’au tenseur énergie-impulsion, offrant ainsi des informations sur le spin, la pression interne et la masse du nucléon. Deux défis majeurs sont identifiés?: le manque de données expérimentales et la difficulté à générer des observables simulées précises via le calcul sur réseau. Le projet se décline en deux volets?: (I) produire de nouvelles simulations de QCD sur réseau de moments de GPD, améliorer les algorithmes et assurer l’extrapolation vers le continuum?; (II) développer des méthodes d’apprentissage automatique pour résoudre les problèmes inverses mal posés et réaliser des ajustements globaux combinant données expérimentales et simulation. La thèse sera réalisée conjointement entre Julich Forschungszentrum (Allemagne) et le CEA (France) au travers du laboratoire virtuel AIDAS, avec un partage du temps entre les deux pays. Les compétences attendues incluent la théorie quantique des champs, la programmation (C++, Python) et une bonne maîtrise du calcul haute performance. Le but du travail est d'obtenir la première extraction fiable de la structure 3D du nucléon, utile pour les futurs collisionneurs EIC/EicC.

Métamatériaux légers et résistants à architectures innovantes fabriqués par fabrication additive pour environnements contraints

Les contraintes environnementales, la hausse des coûts des matières premières et la nécessité de réduire l’empreinte carbone incitent à concevoir des matériaux plus poreux, alliant légèreté et tenue mécanique. Ces matériaux répondent aux besoins de secteurs stratégiques tels que l’aéronautique, le spatial, les transports, l’énergie et les instruments de physique de haute performance.

Les métamatériaux mécaniques, constitués de structures en microtreillis obtenues par impression 3D, offrent un potentiel unique pour relever ces défis. En modulant la topologie de leurs réseaux internes, il devient possible d’atteindre des rapports rigidité/densité supérieurs à ceux des matériaux conventionnels et d’adapter leur architecture pour viser des propriétés mécaniques ou fonctionnelles spécifiques.

Cette thèse s’inscrit dans cette dynamique d’innovation. Elle vise à développer des métamatériaux métalliques ultralégers dont l’architecture est optimisée pour maximiser les performances mécaniques tout en conservant une isotropie assurant un comportement prévisible grâce aux outils classiques d’ingénierie, notamment le calcul par éléments finis, la simulation numérique et les approches multiéchelles. L’approche s’appuie sur une expertise reconnue au sein du CEA, en particulier à l’IRAMIS et à l’IRFU/DIS, dans la conception de métastructures aléatoires isotropes et leur mise en forme par fabrication additive métallique.

En combinant mécanique numérique, conception avancée, fabrication additive multiprocédés et caractérisations in situ, cette thèse vise à repousser les limites actuelles de la conception et de la fabrication de structures métalliques complexes.

Sur le lien universel accrétion / éjection : des microquasars aux transitoires extragalactiques

Ce projet de thèse étudie le couplage universel entre l'accrétion et l'éjection, processus fondamentaux par lesquels les trous noirs et les étoiles à neutrons grandissent et libèrent de l'énergie. En utilisant les microquasars comme laboratoires proches, le candidat étudiera comment les variations des flux d'accrétion produisent des jets relativistes, et comment ces mécanismes s'appliquent à l'échelle des trous noirs supermassifs dans les événements de disruption par marée (TDE).

Le couplage accrétion-éjection entraîne des rétroactions d'énergie qui façonne la formation et l'évolution des galaxies, mais son origine physique reste mal comprise. Le candidat combinera des observations multi-longueurs d'onde - provenant du SVOM (rayons X/optique) et de nouveaux télescopes radio (MeerKAT, précurseurs du SKA) - pour effectuer des analyses résolues en temps reliant les états d'accrétion à l'émission de jets. De récentes missions telles que Einstein Probe et l'observatoire Vera Rubin (LSST) élargiront considérablement l'échantillon de transitoires, y compris les TDE à jets, permettant de nouveaux tests de la physique du lancement des jets à travers les échelles de masse et de temps.

Au sein de l'équipe CEA/IRFU, un partenaire majeur de SVOM, l'étudiant participera à la détection en temps réel des transitoires et au suivi multi-longueurs d'onde, tout en exploitant les données d'archives pour fournir un contexte à long terme. Ce projet permettra au candidat de se former à l'astrophysique des hautes énergies, à la radioastronomie et à la découverte basée sur les données, contribuant ainsi à une compréhension unifiée de l'accrétion, de la formation des jets et de la rétroaction cosmique.

Formation des magnétars : de l’amplification à la relaxation des champs magnétiques les plus extrêmes

Les magnétars sont les étoiles à neutrons arborant les plus forts champs magnétiques connus dans l’Univers, observées comme des sources galactiques de haute énergie. La formation de ces objets figure parmi les scénarios les plus étudiés pour expliquer certaines des explosions les plus violentes : les supernovae superlumineuses, les hypernovae et les sursauts gamma. Notre équipe a réussi au cours des dernières années à reproduire numériquement des champs magnétiques d’une intensité comparable à celle des magnétars en simulant des mécanismes d'amplification dynamo qui se développent dans les premières secondes après la formation de l’étoile à neutrons. La plupart des manifestations observationnelles des magnétars nécessitent cependant que le champ magnétique survive sur des échelles de temps bien plus longues (de quelques semaines pour les supernovae superlumineuses à des milliers d’années pour les magnétars galactiques). Cette thèse consistera à développer des simulations numériques 3D de relaxation du champ magnétique initialisées à partir de différents états dynamo calculés précédemment par l’équipe, en les prolongeant vers des stades plus tardifs après la naissance de l’étoile à neutrons lorsque la dynamo n’est plus active. L’étudiant.e déterminera ainsi comment le champ magnétique turbulent généré dans les premières secondes va évoluer pour éventuellement atteindre un état d’équilibre stable, dont on cherchera à caractériser la topologie et à le confronter aux observations électromagnétiques.

Exoplanetes : l'apport des courbes de phase observées avec le JWST

Le télescope spatial James Webb (JWST), lancé par la NASA le 25 décembre 2021, révolutionne notre compréhension du cosmos, en particulier dans le domaine des exoplanètes. Avec plus de 6 000 exoplanètes détectées, on découvre des mondes très variés, dont certains sans équivalent dans notre Système solaire, comme les « hot Jupiters » ou les « super-Terres ». JWST permet désormais la caractérisation détaillée des atmosphères exoplanétaires grâce à ses instruments spectroscopiques couvrant de 0,6 à 27 µm et sa grande surface collectrice de lumière (25 m²). Cette capacité permet de déterminer la composition moléculaire, la présence de nuages ou d’aérosols, le profil pression–température et les processus physiques et chimiques à l'œuvre dans ces atmosphères.

La méthode principale utilisée est celle dite des transits, observant les variations de luminosité lors du passage de la planète devant son étoile ou derrière elle (éclipse secondaire). Néanmoins, l’observation sur toute la période orbitale (phase curve)—qui contient aussi un transit et deux éclipses—fournit encore plus d’informations. Avec les courbes de phase, le budget énergétique, la structure longitudinale, et la circulation atmosphérique peuvent être directement observés. JWST a déjà obtenu des données en courbes de phase d’une qualité exceptionnelle. Beaucoup de ces ensembles de données sont désormais accessibles au public et contiennent une mine d’informations, mais ils ne sont que partiellement exploités. La durée de ces observations, la finesse des signaux très faibles (quelques dizaines de ppm), et la présence d’effets instrumentaux plus subtiles rendent l’exploitation de ces données plus complexe.

La thèse proposée se concentrera d’abord sur l’étude et la correction de ces effets instrumentaux, puis sur l’extraction des propriétés atmosphériques avec le logiciel TauREx (https://taurex.space/), sous la co-supervision de Quentin Changeat (Université de Groningen) et Pierre-Olivier Langage (CEA Paris-Saclay). Cette thèse participera à la préparation de l’exploitation scientifique de la mission ESA Ariel (lancement prévu en 2031), entièrement dédiée à l’étude des atmosphères exoplanétaires et qui pourrait observer près de 50 courbes de phase.

Magnéto-convection des étoiles de type solaire: émergence du flux et origine des taches stellaires

Le Soleil et les étoiles de type solaire possèdent un magnétisme riche et variable. Nous avons pu mettre en évidence dans nos travaux récents sur les dynamos turbulentes convectives de ce type d' étoiles, une histoire magnéto-rotationelle de leur évolution séculaire. Les étoiles naissent active avec des cycles magnétiques courts, puis en décélérant par le freinage du à leur vent de particules magnétisé, leur cycle magnétique s'allonge pour devenir commensurable à celui du Soleil (d'une durée de 11 ans) et enfin pour les étoiles vivant suffisamment longtemps finir avec une perte de cycle et une rotation dite anti-solaire (équateur lent/poles rapides). L'accord avec les observations est excellent mais il nous manque un élément essentiel pour conclure: Quel role jouent les taches solaires/stellaires dans l'organisation du magnétisme de ces étoiles et sont-elles nécessaires à l'apparition d'un cycle magnétique, ce qui s'appelle "le paradox des dynamos cycliques sans tache". En effet, nos simulations HPC de dynamo solaire n'ont pas la résolution angulaire pour résoudre les taches et pourtant nous observons bien des cycles dans nos simulation de dynamos stellaires pour des nombres de Rossby < 1. Dès lors les taches sont-elle une simple manifestations de surface d'une auto-organisation interne du magnétisme cyclique de ces étoiles, ou jouent-elle un rôle déterminant. De plus, comment l'émergence de flux en latitude et la taille et intensité des taches se formant à la surface évoluent ils au cours de l'évolution magnéto-rotationelle de ces étoiles? Pour répondre à cette question essentielle en magnétisme des étoiles et du Soleil, il faut développer de nouvelles simulations HPC de dynamo stellaire en soutien aux missions spatiales Solar Orbiter et PLATO pour lesquelles nous sommes directement impliqués, permettant de s'approcher plus près de la surface et ainsi de mieux décrire le processus d'émergence de flux magnétique et la possible formation de taches solaires. Des tests récents montrant que des concentrations magnétiques inhibant la convection de surface localement se forment ab-initio dans des simulations avec un nombre de Reynolds magnétique plus grand et une convection de surface plus petites échelles nous encourage fortement à poursuivre ce projet au delà de l'ERC Whole Sun (finissant en Avril 2026). Grace au code Dyablo-Whole Sun que nous co-développons avec le IRFU/Dedip, nous désirons étudier en détails la dynamo convective, l'émergence de flux magnétique et la formation auto-cohérente de taches résolues, en utilisant sa capacité de raffinement de maillage adaptative et en variant les paramètres globaux stellaire comme le taux de rotation, l'épaisseur de la zone convective, et l'intensité de la convection de surface, afin de déterminer comment leur nombre, morphologie et latitude d'émergence changent et s'ils contribuent ou non à la fermeture de la boucle dynamo cyclique.

Etude des noyaux lourds : de la mesure de masse à la spectroscopie des américium et mise en service du double piège de Penning PIPERADE

Le noyau atomique est un objet complexe dont l’étude reste particulièrement active plus d’un siècle après la découverte de son existence. Parmi les nombreuses questions encore ouvertes, celle des limites d’existence du noyau demeure centrale : quels sont les nombres de protons et de neutrons permettant la formation d’un noyau lié ? Cette question peut être abordée à l’aide de mesures de masses permettant d’accéder à l’énergie de liaison du noyau, une de ses propriétés les plus fondamentales. L’objectif de cette thèse est, d’une part, de réaliser une mesure de masse de haute précision des isotopes 234-238Am (Z = 95) à l’Université de Jyväsklyä, en Finlande (expérience prévue en 2026), et d’autre part de participer à l’installation et à la mise en service du double piège de Penning PIPERADE (PIèges de PEnning pour les RAdionucléides à DESIR) au GANIL à Caen. Les noyaux d’américium qui seront étudiés lors de cette thèse sont à la frontière entre deux régions présentant un intérêt particulier : la région de déformation octupolaire (noyaux en forme de poire) et la région des isomères de fission (états méta-stables du noyaux se désintégrant par fission), et la mesure de leur masse permettra de mieux comprendre les propriétés de ces noyaux exotiques. PIPERADE, quant à lui, est un dispositif permettant de réaliser des mesures de masses de haute précision. Aujourd’hui en phase de caractérisation à Bordeaux, son installation à GANIL (prévue en 2027) permettra d’étudier une large gamme de noyaux exotiques via la mesure de leur masse, mais aussi en utilisant des techniques de séparation permettant de purifier les faisceaux radioactifs avant de les envoyer à d’autres dispositifs expérimentaux.

Inférence cosmologique à partir de l'abondance des amas de galaxies détectés par cisaillement gravitationnel sur les données de la mission Euclid

Les amas de galaxies qui se forment à l’intersection des filaments de matière, sont de très bons traceurs de la distribution de matière de l’Univers et sont une précieuse source d’information pour la Cosmologie.
La sensibilité de la mission spatiale Euclid lancée en 2023 permet une détection aveugle des amas de galaxies à partir des effets de lentille gravitationnelle faibles i.e. étroitement liés à la masse totale projetée. Ce point combiné avec la taille du relevé grand champ (14 000 deg2) devrait permettre de construire un catalogue d’amas de galaxies unique de par sa taille et ses caractéristiques de sélection. Contrairement aux catalogues d’amas de galaxies construits jusqu’à maintenant qui sont détectés par leur contenu baryonique (e.g. via le contenu en gas de l’amas en X ou via l’effet Sunyaev-Zeldovich aux longueurs d’ondes millimétriques ou encore via les emissions dans le visible des galaxies), le catalogue d’amas détectés à partir du cisaillement gravitationnel est directement lié à la masse totale des amas et de ce fait vraiment représentatif de la vraie population d’amas de galaxies ce qui est un atout pour les études sur les amas de galaxies et la cosmologie.
Dans ce cadre, nous avons mis au point une méthode multi-échelle conçue pour détecter des amas de galaxies en s'appuyant uniquement sur leurs effets de lentille gravitationnelle faibles. Cette méthode a été pré-sélectionnée pour produire le catalogue d’amas de galaxies à partir des données de cisaillement de la mission Euclid.
Le projet de thèse a pour but de construire et de caractériser ce catalogue d’amas de galaxies à partir des données collectées lors de la première année d’observation de la mission Euclid (DR1) en s’appuyant sur cette méthode de detection. Le ou la candidat(e) dérivera ensuite des contraintes cosmologiques à partir de la modélisation de l’abondance des amas, en utilisant l’approche Bayésienne classique. Il explorera également l’apport des méthodes d’apprentissage de type SBI (Simulation-Based Inference) pour l’inférence cosmologique.

Inférence des paramètres cosmologiques à l’aide de prédictions théoriques des statistiques en ondelettes.

Lancé en 2023, le satellite Euclid observe le ciel dans les longueurs d'onde optiques et infrarouges pour cartifier la structure à grande échelle de l'Univers avec une précision inédite. Un pilier fondamental de sa mission est la mesure du cisaillement gravitationnel faible — de subtiles distorsions dans la forme des galaxies lointaines. Ce phénomène constitue une sonde cosmologique puissante, capable de retracer l'évolution de la matière noire et d'aider à distinguer les théories sur l'énergie noire de celles de la gravité modifiée. Traditionnellement, les cosmologues analysent les données de cisaillement faible à l'aide de statistiques du second ordre (comme le spectre de puissance) couplées à un modèle de vraisemblance gaussien. Cette approche établie rencontre cependant des défis significatifs :
- Perte d'information : Les statistiques du second ordre ne capturent toute l'information disponible que si la distribution de matière sous-jacente est gaussienne. En réalité, la toile cosmique est une structure complexe, composée d'amas, de filaments et de vides, ce qui rend cette approche intrinsèquement incomplète.
- Covariance complexe : La méthode nécessite l'estimation d'une matrice de covariance, qui est à la fois dépendante de la cosmologie et non-gaussienne. Ceci exige de réaliser des milliers de simulations numériques de type N-corps, extrêmement coûteuses en calcul, pour chaque modèle cosmologique, un effort souvent prohibitif.
- Effets systématiques : L'intégration des complications observationnelles — telles que les masques de survey, l'alignement intrinsèque des galaxies, et les effets de rétroaction baryonique — dans ce cadre théorique est notoirement difficile.

Face à ces limitations, un nouveau paradigme a émergé : l'inférence sans vraisemblance par modélisation directe (forward modelling). Cette technique contourne le besoin d'une matrice de covariance en comparant directement les données observées à des observables synthétiques générés par un modèle direct (forward model). Ses avantages sont profonds : elle élimine le fardeau de stockage et de calcul lié aux vastes ensembles de simulations, intègre naturellement l'information statistique d'ordre supérieur, et permet d'inclure de manière transparente les effets systématiques. Cependant, cette nouvelle méthode présente ses propres obstacles : elle demande des ressources de calcul (GPU) immenses pour traiter des surveys de l'envergure d'Euclide, et ses conclusions ne sont aussi fiables que les simulations sur lesquelles elle s'appuie, ce qui peut mener à des débats circulaires si les simulations et les observations divergent.

Une percée récente (Tinnaneni Sreekanth, 2024) ouvre une voie prometteuse. Ces travaux fournissent le premier cadre théorique permettant de prédire directement les principales statistiques en ondelettes des cartes de convergence — exactement le type de cartes qu'Euclide produira — pour un jeu de paramètres cosmologiques donné. Il a été démontré dans Ajani et al. (2021) que la norme L1 des coefficients en ondelettes est extrêmement puissante pour contraindre les paramètres cosmologiques. Cette innovation promet d'exploiter la puissance des statistiques non-gaussiennes avancées sans le surcoût computationnel traditionnel, ouvrant potentiellement la voie à une nouvelle ère de cosmologie de précision.
Nous avons démontré que cette prédiction théorique peut être utilisée pour construire un émulateur hautement efficace (Tinnaneni Sreekanth et al., 2025), accélérant considérablement le calcul de ces statistiques non-gaussiennes. Il est crucial de noter qu'à son stade actuel, cet émulateur ne fournit que la statistique moyenne et n'inclut pas la variance cosmique. En l'état, il ne peut donc pas encore être utilisé seul pour une inférence statistique complète.

Objectif de cette thèse de doctorat:
Cette thèse de doctorat vise à révolutionner l'analyse des données de cisaillement faible en construisant un cadre complet et intégré pour l'inférence cosmologique sans vraisemblance. Le projet commence par adresser le défi fondamental de la stochasticité : nous calculerons d'abord la covariance théorique des statistiques en ondelettes, fournissant une description mathématique rigoureuse de leur incertitude. Ce modèle sera ensuite intégré dans un générateur de cartes stochastiques, créant ainsi des données synthétiques réalistes qui capturent la variabilité intrinsèque de l'Univers.
Pour garantir la robustesse de nos résultats, nous intégrerons une suite complète d'effets systématiques — tels que le bruit, les masques observationnels, les alignements intrinsèques et la physique baryonique — dans le modèle direct. Le pipeline complet sera intégré et validé au sein d'un cadre d'inférence basée sur les simulations, en testant rigoureusement sa capacité à retrouver des paramètres cosmologiques non biaisés. L'aboutissement de ce travail sera l'application de notre outil validé aux données de cisaillement faible d'Euclide, où nous exploiterons l'information non-gaussienne pour poser des contraintes compétitives sur l'énergie noire et la gravité modifiée.

References
V. Ajani, J.-L. Starck and V. Pettorino, "Starlet l1-norm for weak lensing cosmology", Astronomy and Astrophysics,  645, L11, 2021.
V. Tinnaneri Sreekanth, S. Codis, A. Barthelemy, and J.-L. Starck, "Theoretical wavelet l1-norm from one-point PDF prediction", Astronomy and Astrophysics,  691, id.A80, 2024.
V. Tinnaneri Sreekanth, J.-L. Starck and S. Codis, "Generative modeling of convergence maps based in LDT theoretical prediction", Astronomy and Astrophysics,  701, id.A170, 2025.

Top