Technologies de surface pour augmenter le temps de cohérence des Qubits supraconducteurs
Les défauts des matériaux dans les circuits quantiques supraconducteurs, en particulier les défauts de type systèmes à deux niveaux (TLS), sont une source majeure de décohérence, limitant ainsi les performances des qubits. Par conséquent, identifier l'origine microscopique des défauts TLS potentiels et développer des stratégies pour les éliminer est essentiel pour améliorer les performances des qubits supraconducteurs. Ce projet propose une approche originale qui combine la passivation de la surface du supraconducteur avec des films déposés par dépôt de couches atomiques (ALD), qui possèdent intrinsèquement des densités de défauts TLS plus faibles, ainsi que des traitements thermiques conçus pour dissoudre les oxydes natifs présents initialement. Ces couches de passivation seront testées sur des résonateurs 3D en Nb, puis implémentées dans des résonateurs 2D et des qubits afin de mesurer leur temps de cohérence. Le projet effectuera également des études systématiques des matériaux en utilisant des techniques de caractérisation complémentaires pour corréler les améliorations des performances des qubits avec les modifications chimiques et cristallines de la surface.
Réseaux de neurones bayésiens avec transistors à effet de champ à mémoire ferroélectrique (FeMFETs)
De plus en plus de systèmes critiques pour la sécurité reposent sur des fonctions d’intelligence artificielle (IA) qui exigent des capacités de calcul robustes et économe en énergie, souvent dans des environnements marqués par une rareté des données et une forte incertitude. Cependant, les approches traditionnelles de l’IA peinent à quantifier la confiance associée à leurs prédictions, ce qui les rend vulnérables à des décisions peu fiables, voire dangereuses.
Cette thèse s’inscrit dans le domaine émergent de l’électronique bayésienne, qui exploite l’aléa intrinsèque de nanodispositifs innovants pour effectuer des calculs bayésiens directement au niveau du matériel. En encodant les distributions de probabilité au sein même du hardware, ces dispositifs permettent une estimation naturelle de l’incertitude, tout en réduisant la complexité computationnelle par rapport aux architectures déterministes classiques.
Des travaux antérieurs ont déjà démontré le potentiel des memristors pour l’inférence bayésienne. Cependant, leur endurance limitée et leur consommation énergétique élevée lors de la programmation représentent des obstacles majeurs à l’apprentissage embarqué sur puce.
Dans cette thèse, il est proposé d’exploiter des composants mémoires emergents ferroelectric memory field-effect transistors (FeMFETs) pour l’implémentation de réseau de neurones bayésiens.
Détection d'anomalies dans les vidéos adaptative et explicable
La détection d'anomalies dans les vidéos (VAD) vise à identifier automatiquement les événements inhabituels dans des séquences vidéo qui s’écartent des comportements normaux. Les méthodes existantes reposent souvent sur l'apprentissage One-Class ou faiblement supervisé : le premier n'utilise que des données normales pour l'entraînement, tandis que le second s'appuie sur des labels au niveau de la vidéo. Les récents progrès des modèles Vision-Langage (VLM) et des grands modèles de langage (LLM) ont permis d’améliorer à la fois les performances et l’explicabilité des systèmes VAD. Malgré des résultats prometteurs sur des jeux de données publics, plusieurs défis subsistent. La plupart des méthodes sont limitées à un seul domaine, ce qui entraîne une baisse de performance lorsqu'elles sont appliquées à de nouveaux jeux de données avec des définitions d’anomalies différentes. De plus, elles supposent que toutes les données d'entraînement sont disponibles dès le départ, ce qui est peu réaliste dans des contextes d’utilisation réels où les modèles doivent s’adapter continuellement à de nouvelles données. Peu d’approches explorent l’adaptation multimodale en utilisant des règles en langage naturel pour définir les événements normaux ou anormaux. Or, cela permettrait une mise à jour plus intuitive et flexible des systèmes VAD sans nécessiter de nouvelles vidéos.
Ce sujet de thèse a pour objectif de développer des méthodes de détection d’anomalies vidéo adaptables, capables de traiter de nouveaux domaines ou types d’anomalies en s’appuyant sur peu d’exemples vidéo et/ou des règles textuelles.
Les axes de recherche principaux seront les suivants :
• Adaptation interdomaines en VAD : améliorer la robustesse face aux écarts de domaine via une adaptation Few-Shot ;
• Apprentissage continu en VAD : enrichir le modèle en continu pour traiter de nouveaux types d’anomalies ;
• Apprentissage multimodal en Few-Shot : faciliter l’adaptation du modèle à l’aide de règles en langage naturel.
Inférence des paramètres cosmologiques à l’aide de prédictions théoriques des statistiques en ondelettes.
Lancé en 2023, le satellite Euclid observe le ciel dans les longueurs d'onde optiques et infrarouges pour cartifier la structure à grande échelle de l'Univers avec une précision inédite. Un pilier fondamental de sa mission est la mesure du cisaillement gravitationnel faible — de subtiles distorsions dans la forme des galaxies lointaines. Ce phénomène constitue une sonde cosmologique puissante, capable de retracer l'évolution de la matière noire et d'aider à distinguer les théories sur l'énergie noire de celles de la gravité modifiée. Traditionnellement, les cosmologues analysent les données de cisaillement faible à l'aide de statistiques du second ordre (comme le spectre de puissance) couplées à un modèle de vraisemblance gaussien. Cette approche établie rencontre cependant des défis significatifs :
- Perte d'information : Les statistiques du second ordre ne capturent toute l'information disponible que si la distribution de matière sous-jacente est gaussienne. En réalité, la toile cosmique est une structure complexe, composée d'amas, de filaments et de vides, ce qui rend cette approche intrinsèquement incomplète.
- Covariance complexe : La méthode nécessite l'estimation d'une matrice de covariance, qui est à la fois dépendante de la cosmologie et non-gaussienne. Ceci exige de réaliser des milliers de simulations numériques de type N-corps, extrêmement coûteuses en calcul, pour chaque modèle cosmologique, un effort souvent prohibitif.
- Effets systématiques : L'intégration des complications observationnelles — telles que les masques de survey, l'alignement intrinsèque des galaxies, et les effets de rétroaction baryonique — dans ce cadre théorique est notoirement difficile.
Face à ces limitations, un nouveau paradigme a émergé : l'inférence sans vraisemblance par modélisation directe (forward modelling). Cette technique contourne le besoin d'une matrice de covariance en comparant directement les données observées à des observables synthétiques générés par un modèle direct (forward model). Ses avantages sont profonds : elle élimine le fardeau de stockage et de calcul lié aux vastes ensembles de simulations, intègre naturellement l'information statistique d'ordre supérieur, et permet d'inclure de manière transparente les effets systématiques. Cependant, cette nouvelle méthode présente ses propres obstacles : elle demande des ressources de calcul (GPU) immenses pour traiter des surveys de l'envergure d'Euclide, et ses conclusions ne sont aussi fiables que les simulations sur lesquelles elle s'appuie, ce qui peut mener à des débats circulaires si les simulations et les observations divergent.
Une percée récente (Tinnaneni Sreekanth, 2024) ouvre une voie prometteuse. Ces travaux fournissent le premier cadre théorique permettant de prédire directement les principales statistiques en ondelettes des cartes de convergence — exactement le type de cartes qu'Euclide produira — pour un jeu de paramètres cosmologiques donné. Il a été démontré dans Ajani et al. (2021) que la norme L1 des coefficients en ondelettes est extrêmement puissante pour contraindre les paramètres cosmologiques. Cette innovation promet d'exploiter la puissance des statistiques non-gaussiennes avancées sans le surcoût computationnel traditionnel, ouvrant potentiellement la voie à une nouvelle ère de cosmologie de précision.
Nous avons démontré que cette prédiction théorique peut être utilisée pour construire un émulateur hautement efficace (Tinnaneni Sreekanth et al., 2025), accélérant considérablement le calcul de ces statistiques non-gaussiennes. Il est crucial de noter qu'à son stade actuel, cet émulateur ne fournit que la statistique moyenne et n'inclut pas la variance cosmique. En l'état, il ne peut donc pas encore être utilisé seul pour une inférence statistique complète.
Objectif de cette thèse de doctorat:
Cette thèse de doctorat vise à révolutionner l'analyse des données de cisaillement faible en construisant un cadre complet et intégré pour l'inférence cosmologique sans vraisemblance. Le projet commence par adresser le défi fondamental de la stochasticité : nous calculerons d'abord la covariance théorique des statistiques en ondelettes, fournissant une description mathématique rigoureuse de leur incertitude. Ce modèle sera ensuite intégré dans un générateur de cartes stochastiques, créant ainsi des données synthétiques réalistes qui capturent la variabilité intrinsèque de l'Univers.
Pour garantir la robustesse de nos résultats, nous intégrerons une suite complète d'effets systématiques — tels que le bruit, les masques observationnels, les alignements intrinsèques et la physique baryonique — dans le modèle direct. Le pipeline complet sera intégré et validé au sein d'un cadre d'inférence basée sur les simulations, en testant rigoureusement sa capacité à retrouver des paramètres cosmologiques non biaisés. L'aboutissement de ce travail sera l'application de notre outil validé aux données de cisaillement faible d'Euclide, où nous exploiterons l'information non-gaussienne pour poser des contraintes compétitives sur l'énergie noire et la gravité modifiée.
References
V. Ajani, J.-L. Starck and V. Pettorino, "Starlet l1-norm for weak lensing cosmology", Astronomy and Astrophysics, 645, L11, 2021.
V. Tinnaneri Sreekanth, S. Codis, A. Barthelemy, and J.-L. Starck, "Theoretical wavelet l1-norm from one-point PDF prediction", Astronomy and Astrophysics, 691, id.A80, 2024.
V. Tinnaneri Sreekanth, J.-L. Starck and S. Codis, "Generative modeling of convergence maps based in LDT theoretical prediction", Astronomy and Astrophysics, 701, id.A170, 2025.
Développement et caractérisation de matrices de sources TeraHertz cointégrées en technologie photonique Silicium et III-V
La gamme TéraHertz (0.1–10 THz) suscite un fort intérêt pour l’imagerie et la spectroscopie (sécurité, santé, environnement, contrôle industriel) du fait de la transparence de nombreux matériaux en THz et des signatures spectrales caractéristiques. Cependant, les sources actuelles peinent à concilier puissance et accordabilité : les diodes et lasers à cascade quantique (QCL) délivrent plusieurs mW mais sur une bande étroite, tandis que les photodiodes III–V (photomixeurs) sont accordables sur de larges bandes mais limitées à quelques µW. Ce sujet de thèse vise à surmonter ces verrous en développant une matrice intégrée de sources THz. Le principe retenu est le photomélange de deux lasers à 1.55 µm dans des photodiodes InGaAs III–V, générant un courant THz modulé en phase et injecté dans des antennes adaptées.
La thèse débutera par l’étude expérimentale d’un réseau discret de 16 antennes THz (projet STYX) CEA-CTReg/DNAQ : installation du banc d’essai, mesures de cohérence de phase, de couplage optique, de lobes de rayonnement et d’interférences constructives. Ces expérimentations fourniront un socle scientifique pour la suite, à savoir la conception d’un réseau photonique intégré sur silicium. L’étudiant simulera l’architecture photonique (coupleurs, guides, modulateurs de phase, transitions Si/III–V) synchronisant plusieurs photodiodes InGaAs. Le prototypage comprendra la fabrication des circuits photoniques silicium (CEA-LETI) et des photodiodes/antennes THz en InP (III-V Lab ou, à confirmer, Heinrich-Hertz-Institut du Fraunhofer—HHI), suivie de leur intégration hybride (collage, alignement).
Cette thèse s’appuiera également sur une collaboration étroite avec le laboratoire IMS (Talence), reconnu au niveau national et international pour son expertise en photonique intégrée et en systèmes THz, apportant ainsi une complémentarité essentielle en modélisation optique, simulation électromagnétique et caractérisation expérimentale.
L’objectif final de cette thèse consistera à réaliser un prototype à quelques émetteurs (e.g. 4–16) dont la directivité et la puissance rayonnée sont accrues par les interférences constructives. La démonstration expérimentale validera le gain en portée et pénétration du rayonnement THz grâce à la combinaison puissance/accordabilité, ouvrant la voie à des systèmes d’imagerie THz de nouvelle génération.
Modélisation d'une diode magnonique basée sur la non-réciprocité des ondes de spin dans les nanofils et les nanotubes
Ce projet de doctorat porte sur le phénomène émergent de non-réciprocité des ondes de spin dans les fils magnétiques cylindriques, de leurs propriétés fondamentales jusqu'à leur exploitation pour la réalisation de dispositifs à base de diodes magnoniques. Des expériences préliminaires menées dans notre laboratoire SPINTEC sur des fils cylindriques, avec une aimantation axiale dans le cœur et azimutale à la surface du fil, ont révélé un effet asymétrique géant (courbes de dispersion asymétriques avec des vitesses et des périodes différentes pour les ondes se propageant vers la gauche et vers la droite), créant même une bande interdite pour une direction de mouvement donnée, liée à la circulation de la magnétisation (vers la droite ou vers la gauche). Cette situation particulière n'a pas encore été décrite théoriquement ni modélisée, ce qui constitue un terrain inexploré et prometteur pour ce projet de doctorat. Pour modéliser la propagation des ondes de spin et dériver les courbes de dispersion pour un matériau donné, nous prévoyons d'utiliser divers outils numériques : notre logiciel micromagnétique 3D par éléments finis feeLLGood et le logiciel 2D open source TetraX dédié aux calculs de modes propres et spectres associés. Ce travail sera mené en étroite collaboration avec des expérimentateurs, dans le but à la fois d'expliquer les résultats expérimentaux et d'orienter les futures expériences et les axes de recherche.
Gestion de réseau pilotée par l'IA avec de grands modèles LLMs
La complexité croissante des réseaux hétérogènes (satellitaire, 5G, IoT, TSN) nécessite de faire évoluer la gestion de réseau. Le Réseau Basé sur l'Intention (IBN), bien qu'avancé, se heurte encore à la difficulté de traduire des intentions de haut niveau en configurations techniques sans ambiguïté. Ce travail propose de lever ce verrou en exploitant les Grands Modèles de Langage (LLM) comme interface cognitive pour une automatisation complète et fiable.
Cette thèse vise à concevoir et développer un framework IBN-LLM pour créer le cerveau cognitif d'une boucle de contrôle fermée au-dessus du SDN. Le travail se concentrera sur trois défis majeurs : 1) développer un traducteur sémantique fiable du langage naturel vers les configurations réseau ; 2) concevoir un Moteur de Vérification déterministe (via simulations ou jumeaux numériques) pour prévenir les « hallucinations » des LLM ; et 3) intégrer une capacité d'analyse en temps réel (RAG) pour l'Analyse de Cause Racine (RCA) et la génération proactive d'intentions d'optimisation.
Nous attendons la conception d’une architecture IBN-LLM intégrée aux contrôleurs SDN, ainsi que des méthodologies pour la vérification formelle des configurations. La contribution principale sera la création d'un modèle basé sur LLM capable d'effectuer la RCA et de générer des intentions d'optimisation en temps réel. La validation de l'approche sera assurée par un prototype fonctionnel (PoC), dont l'évaluation expérimentale permettra de mesurer précisément les performances en termes de précision, de latence et de résilience.
Recherche d’axions dans l’expérience SuperDAWA avec aimants supraconducteurs et radiométrie hyperfréquence
Les axions sont des particules hypothétiques qui pourraient à la fois expliquer un problème fondamental de la physique des interactions fortes (la conservation de la symétrie CP en QCD) et constituer une part importante de la matière noire. Leur détection directe représente donc un enjeu majeur en physique fondamentale et en cosmologie.
L’expérience SuperDAWA, en cours de construction au CEA Saclay, repose sur l’utilisation d’aimants supraconducteurs et d’un radiomètre hyperfréquence placé dans un cryostat cryogénique. Ce dispositif permettra de convertir des axions potentiels en ondes radio mesurables, dont la fréquence est directement liée à leur masse.
Le travail de thèse proposé se partagera entre modélisation numérique et participation à l’expérience. L’étudiant·e développera un modèle complet intégrant les champs magnétiques, la propagation du signal radio et la réponse de l’électronique, avec une validation progressive par des mesures réelles. Une fois l’expérience opérationnelle, le·la doctorant·e participera aux campagnes de prises de données et à leur analyse.
Ce projet offrira l’opportunité unique de contribuer à une expérience de pointe en physique expérimentale, avec des retombées directes sur la recherche mondiale de matière noire.
Méga-analyse cosmologique multi-sonde du relevé DESI: inférence bayésienne standard et au niveau du champ
Les grandes structures de l’Univers (LSS) sont sondées par plusieurs observables : distribution des galaxies, lentillage faible des galaxies et du fond diffus cosmologique (CMB). Chacune permet de tester la gravité à grande échelle et l’énergie noire, mais leur analyse jointe assure le meilleur contrôle des paramètres de nuisance et fournit les contraintes cosmologiques les plus précises.
Le relevé spectroscopique DESI cartographie la distribution 3D de galaxies. À la fin de son relevé nominal de 5 ans cette année, il aura observé 40 millions de galaxies et quasars (dix fois plus que les relevés précédents) sur un tiers du ciel, jusqu’à un décalage spectral de z = 4.2. En combinant ses données avec celles du CMB et des supernovae, la collaboration a mis en évidence une éventuelle déviation de l’énergie noire par rapport à la constante cosmologique.
Pour tirer pleinement parti de ces données, DESI a lancé une "méga-analyse" combinant galaxies, lentillage de galaxies (Euclid, UNIONS, DES, HSC, KIDS) et du CMB (Planck, ACT, SPT), visant à produire les contraintes les plus précises jamais obtenues sur l’énergie noire et la gravité. L’étudiant jouera un rôle clé dans le développement et la mise en oeuvre de cette chaîne d’analyse multi-sonde.
L’analyse standard compresse les observations en spectre de puissance pour l’inférence cosmologique, mais cette approche reste sous-optimale. L’étudiant développera une alternative, dite analyse au niveau du champ, qui consiste à ajuster directement le champ de densité et de lentillage observé, simulé à partir des conditions initiales de l’Univers. Ceci constitue un problème d’inférence bayésienne en très haute dimension, qui sera traité à l’aide d’échantillonneurs récents basés sur le gradient et de bibliothèques GPU avec différentiation automatique. Cette méthode de pointe sera validée en parallèle avec l’approche standard, ouvrant la voie à une exploitation maximale des données DESI.
Compression hybride de réseaux de neurones pour l’IA embarquée : concilier efficacité et performance
Les réseaux de neurones convolutifs (CNNs) sont aujourd’hui au cœur de la vision par ordinateur, mais leur déploiement sur des systèmes embarqués (robots, objets connectés, dispositifs mobiles) reste limité par leur taille et leur consommation en énergie. Une solution consiste à compresser les modèles pour les rendre plus légers et plus rapides, sans perte importante de précision. Plusieurs approches existent (quantification des poids, factorisation bas-rang, sparsité), mais elles atteignent rapidement leurs limites lorsqu’elles sont appliquées séparément. L’objectif de cette thèse est de développer un cadre d’optimisation unifié permettant de combiner ces techniques de façon synergique. Le travail comportera une part théorique (modélisation mathématique, optimisation) et une part expérimentale (validation sur réseaux standards comme ResNet ou MobileNet, puis sur plateformes embarquées type Jetson, Raspberry Pi, FPGA). À plus long terme, l’approche pourra être testée sur d’autres architectures comme les transformers. Le projet s’appuie sur une collaboration entre un laboratoire académique spécialisé en décomposition tensorielle et un partenaire orienté hardware, offrant un encadrement complémentaire et interdisciplinaire.