Formation des magnétars : de l’amplification à la relaxation des champs magnétiques les plus extrêmes
Les magnétars sont les étoiles à neutrons arborant les plus forts champs magnétiques connus dans l’Univers, observées comme des sources galactiques de haute énergie. La formation de ces objets figure parmi les scénarios les plus étudiés pour expliquer certaines des explosions les plus violentes : les supernovae superlumineuses, les hypernovae et les sursauts gamma. Notre équipe a réussi au cours des dernières années à reproduire numériquement des champs magnétiques d’une intensité comparable à celle des magnétars en simulant des mécanismes d'amplification dynamo qui se développent dans les premières secondes après la formation de l’étoile à neutrons. La plupart des manifestations observationnelles des magnétars nécessitent cependant que le champ magnétique survive sur des échelles de temps bien plus longues (de quelques semaines pour les supernovae superlumineuses à des milliers d’années pour les magnétars galactiques). Cette thèse consistera à développer des simulations numériques 3D de relaxation du champ magnétique initialisées à partir de différents états dynamo calculés précédemment par l’équipe, en les prolongeant vers des stades plus tardifs après la naissance de l’étoile à neutrons lorsque la dynamo n’est plus active. L’étudiant.e déterminera ainsi comment le champ magnétique turbulent généré dans les premières secondes va évoluer pour éventuellement atteindre un état d’équilibre stable, dont on cherchera à caractériser la topologie et à le confronter aux observations électromagnétiques.
Magnéto-convection des étoiles de type solaire: émergence du flux et origine des taches stellaires
Le Soleil et les étoiles de type solaire possèdent un magnétisme riche et variable. Nous avons pu mettre en évidence dans nos travaux récents sur les dynamos turbulentes convectives de ce type d' étoiles, une histoire magnéto-rotationelle de leur évolution séculaire. Les étoiles naissent active avec des cycles magnétiques courts, puis en décélérant par le freinage du à leur vent de particules magnétisé, leur cycle magnétique s'allonge pour devenir commensurable à celui du Soleil (d'une durée de 11 ans) et enfin pour les étoiles vivant suffisamment longtemps finir avec une perte de cycle et une rotation dite anti-solaire (équateur lent/poles rapides). L'accord avec les observations est excellent mais il nous manque un élément essentiel pour conclure: Quel role jouent les taches solaires/stellaires dans l'organisation du magnétisme de ces étoiles et sont-elles nécessaires à l'apparition d'un cycle magnétique, ce qui s'appelle "le paradox des dynamos cycliques sans tache". En effet, nos simulations HPC de dynamo solaire n'ont pas la résolution angulaire pour résoudre les taches et pourtant nous observons bien des cycles dans nos simulation de dynamos stellaires pour des nombres de Rossby < 1. Dès lors les taches sont-elle une simple manifestations de surface d'une auto-organisation interne du magnétisme cyclique de ces étoiles, ou jouent-elle un rôle déterminant. De plus, comment l'émergence de flux en latitude et la taille et intensité des taches se formant à la surface évoluent ils au cours de l'évolution magnéto-rotationelle de ces étoiles? Pour répondre à cette question essentielle en magnétisme des étoiles et du Soleil, il faut développer de nouvelles simulations HPC de dynamo stellaire en soutien aux missions spatiales Solar Orbiter et PLATO pour lesquelles nous sommes directement impliqués, permettant de s'approcher plus près de la surface et ainsi de mieux décrire le processus d'émergence de flux magnétique et la possible formation de taches solaires. Des tests récents montrant que des concentrations magnétiques inhibant la convection de surface localement se forment ab-initio dans des simulations avec un nombre de Reynolds magnétique plus grand et une convection de surface plus petites échelles nous encourage fortement à poursuivre ce projet au delà de l'ERC Whole Sun (finissant en Avril 2026). Grace au code Dyablo-Whole Sun que nous co-développons avec le IRFU/Dedip, nous désirons étudier en détails la dynamo convective, l'émergence de flux magnétique et la formation auto-cohérente de taches résolues, en utilisant sa capacité de raffinement de maillage adaptative et en variant les paramètres globaux stellaire comme le taux de rotation, l'épaisseur de la zone convective, et l'intensité de la convection de surface, afin de déterminer comment leur nombre, morphologie et latitude d'émergence changent et s'ils contribuent ou non à la fermeture de la boucle dynamo cyclique.
Inférence des paramètres cosmologiques à l’aide de prédictions théoriques des statistiques en ondelettes.
Lancé en 2023, le satellite Euclid observe le ciel dans les longueurs d'onde optiques et infrarouges pour cartifier la structure à grande échelle de l'Univers avec une précision inédite. Un pilier fondamental de sa mission est la mesure du cisaillement gravitationnel faible — de subtiles distorsions dans la forme des galaxies lointaines. Ce phénomène constitue une sonde cosmologique puissante, capable de retracer l'évolution de la matière noire et d'aider à distinguer les théories sur l'énergie noire de celles de la gravité modifiée. Traditionnellement, les cosmologues analysent les données de cisaillement faible à l'aide de statistiques du second ordre (comme le spectre de puissance) couplées à un modèle de vraisemblance gaussien. Cette approche établie rencontre cependant des défis significatifs :
- Perte d'information : Les statistiques du second ordre ne capturent toute l'information disponible que si la distribution de matière sous-jacente est gaussienne. En réalité, la toile cosmique est une structure complexe, composée d'amas, de filaments et de vides, ce qui rend cette approche intrinsèquement incomplète.
- Covariance complexe : La méthode nécessite l'estimation d'une matrice de covariance, qui est à la fois dépendante de la cosmologie et non-gaussienne. Ceci exige de réaliser des milliers de simulations numériques de type N-corps, extrêmement coûteuses en calcul, pour chaque modèle cosmologique, un effort souvent prohibitif.
- Effets systématiques : L'intégration des complications observationnelles — telles que les masques de survey, l'alignement intrinsèque des galaxies, et les effets de rétroaction baryonique — dans ce cadre théorique est notoirement difficile.
Face à ces limitations, un nouveau paradigme a émergé : l'inférence sans vraisemblance par modélisation directe (forward modelling). Cette technique contourne le besoin d'une matrice de covariance en comparant directement les données observées à des observables synthétiques générés par un modèle direct (forward model). Ses avantages sont profonds : elle élimine le fardeau de stockage et de calcul lié aux vastes ensembles de simulations, intègre naturellement l'information statistique d'ordre supérieur, et permet d'inclure de manière transparente les effets systématiques. Cependant, cette nouvelle méthode présente ses propres obstacles : elle demande des ressources de calcul (GPU) immenses pour traiter des surveys de l'envergure d'Euclide, et ses conclusions ne sont aussi fiables que les simulations sur lesquelles elle s'appuie, ce qui peut mener à des débats circulaires si les simulations et les observations divergent.
Une percée récente (Tinnaneni Sreekanth, 2024) ouvre une voie prometteuse. Ces travaux fournissent le premier cadre théorique permettant de prédire directement les principales statistiques en ondelettes des cartes de convergence — exactement le type de cartes qu'Euclide produira — pour un jeu de paramètres cosmologiques donné. Il a été démontré dans Ajani et al. (2021) que la norme L1 des coefficients en ondelettes est extrêmement puissante pour contraindre les paramètres cosmologiques. Cette innovation promet d'exploiter la puissance des statistiques non-gaussiennes avancées sans le surcoût computationnel traditionnel, ouvrant potentiellement la voie à une nouvelle ère de cosmologie de précision.
Nous avons démontré que cette prédiction théorique peut être utilisée pour construire un émulateur hautement efficace (Tinnaneni Sreekanth et al., 2025), accélérant considérablement le calcul de ces statistiques non-gaussiennes. Il est crucial de noter qu'à son stade actuel, cet émulateur ne fournit que la statistique moyenne et n'inclut pas la variance cosmique. En l'état, il ne peut donc pas encore être utilisé seul pour une inférence statistique complète.
Objectif de cette thèse de doctorat:
Cette thèse de doctorat vise à révolutionner l'analyse des données de cisaillement faible en construisant un cadre complet et intégré pour l'inférence cosmologique sans vraisemblance. Le projet commence par adresser le défi fondamental de la stochasticité : nous calculerons d'abord la covariance théorique des statistiques en ondelettes, fournissant une description mathématique rigoureuse de leur incertitude. Ce modèle sera ensuite intégré dans un générateur de cartes stochastiques, créant ainsi des données synthétiques réalistes qui capturent la variabilité intrinsèque de l'Univers.
Pour garantir la robustesse de nos résultats, nous intégrerons une suite complète d'effets systématiques — tels que le bruit, les masques observationnels, les alignements intrinsèques et la physique baryonique — dans le modèle direct. Le pipeline complet sera intégré et validé au sein d'un cadre d'inférence basée sur les simulations, en testant rigoureusement sa capacité à retrouver des paramètres cosmologiques non biaisés. L'aboutissement de ce travail sera l'application de notre outil validé aux données de cisaillement faible d'Euclide, où nous exploiterons l'information non-gaussienne pour poser des contraintes compétitives sur l'énergie noire et la gravité modifiée.
References
V. Ajani, J.-L. Starck and V. Pettorino, "Starlet l1-norm for weak lensing cosmology", Astronomy and Astrophysics, 645, L11, 2021.
V. Tinnaneri Sreekanth, S. Codis, A. Barthelemy, and J.-L. Starck, "Theoretical wavelet l1-norm from one-point PDF prediction", Astronomy and Astrophysics, 691, id.A80, 2024.
V. Tinnaneri Sreekanth, J.-L. Starck and S. Codis, "Generative modeling of convergence maps based in LDT theoretical prediction", Astronomy and Astrophysics, 701, id.A170, 2025.
Modélisation d'une diode magnonique basée sur la non-réciprocité des ondes de spin dans les nanofils et les nanotubes
Ce projet de doctorat porte sur le phénomène émergent de non-réciprocité des ondes de spin dans les fils magnétiques cylindriques, de leurs propriétés fondamentales jusqu'à leur exploitation pour la réalisation de dispositifs à base de diodes magnoniques. Des expériences préliminaires menées dans notre laboratoire SPINTEC sur des fils cylindriques, avec une aimantation axiale dans le cœur et azimutale à la surface du fil, ont révélé un effet asymétrique géant (courbes de dispersion asymétriques avec des vitesses et des périodes différentes pour les ondes se propageant vers la gauche et vers la droite), créant même une bande interdite pour une direction de mouvement donnée, liée à la circulation de la magnétisation (vers la droite ou vers la gauche). Cette situation particulière n'a pas encore été décrite théoriquement ni modélisée, ce qui constitue un terrain inexploré et prometteur pour ce projet de doctorat. Pour modéliser la propagation des ondes de spin et dériver les courbes de dispersion pour un matériau donné, nous prévoyons d'utiliser divers outils numériques : notre logiciel micromagnétique 3D par éléments finis feeLLGood et le logiciel 2D open source TetraX dédié aux calculs de modes propres et spectres associés. Ce travail sera mené en étroite collaboration avec des expérimentateurs, dans le but à la fois d'expliquer les résultats expérimentaux et d'orienter les futures expériences et les axes de recherche.
Recherche d’axions dans l’expérience SuperDAWA avec aimants supraconducteurs et radiométrie hyperfréquence
Les axions sont des particules hypothétiques qui pourraient à la fois expliquer un problème fondamental de la physique des interactions fortes (la conservation de la symétrie CP en QCD) et constituer une part importante de la matière noire. Leur détection directe représente donc un enjeu majeur en physique fondamentale et en cosmologie.
L’expérience SuperDAWA, en cours de construction au CEA Saclay, repose sur l’utilisation d’aimants supraconducteurs et d’un radiomètre hyperfréquence placé dans un cryostat cryogénique. Ce dispositif permettra de convertir des axions potentiels en ondes radio mesurables, dont la fréquence est directement liée à leur masse.
Le travail de thèse proposé se partagera entre modélisation numérique et participation à l’expérience. L’étudiant·e développera un modèle complet intégrant les champs magnétiques, la propagation du signal radio et la réponse de l’électronique, avec une validation progressive par des mesures réelles. Une fois l’expérience opérationnelle, le·la doctorant·e participera aux campagnes de prises de données et à leur analyse.
Ce projet offrira l’opportunité unique de contribuer à une expérience de pointe en physique expérimentale, avec des retombées directes sur la recherche mondiale de matière noire.
Méga-analyse cosmologique multi-sonde du relevé DESI: inférence bayésienne standard et au niveau du champ
Les grandes structures de l’Univers (LSS) sont sondées par plusieurs observables : distribution des galaxies, lentillage faible des galaxies et du fond diffus cosmologique (CMB). Chacune permet de tester la gravité à grande échelle et l’énergie noire, mais leur analyse jointe assure le meilleur contrôle des paramètres de nuisance et fournit les contraintes cosmologiques les plus précises.
Le relevé spectroscopique DESI cartographie la distribution 3D de galaxies. À la fin de son relevé nominal de 5 ans cette année, il aura observé 40 millions de galaxies et quasars (dix fois plus que les relevés précédents) sur un tiers du ciel, jusqu’à un décalage spectral de z = 4.2. En combinant ses données avec celles du CMB et des supernovae, la collaboration a mis en évidence une éventuelle déviation de l’énergie noire par rapport à la constante cosmologique.
Pour tirer pleinement parti de ces données, DESI a lancé une "méga-analyse" combinant galaxies, lentillage de galaxies (Euclid, UNIONS, DES, HSC, KIDS) et du CMB (Planck, ACT, SPT), visant à produire les contraintes les plus précises jamais obtenues sur l’énergie noire et la gravité. L’étudiant jouera un rôle clé dans le développement et la mise en oeuvre de cette chaîne d’analyse multi-sonde.
L’analyse standard compresse les observations en spectre de puissance pour l’inférence cosmologique, mais cette approche reste sous-optimale. L’étudiant développera une alternative, dite analyse au niveau du champ, qui consiste à ajuster directement le champ de densité et de lentillage observé, simulé à partir des conditions initiales de l’Univers. Ceci constitue un problème d’inférence bayésienne en très haute dimension, qui sera traité à l’aide d’échantillonneurs récents basés sur le gradient et de bibliothèques GPU avec différentiation automatique. Cette méthode de pointe sera validée en parallèle avec l’approche standard, ouvrant la voie à une exploitation maximale des données DESI.