Dispositifs pérovskite pour la production d'hydrogène solaire

La thèse de doctorat fait partie du projet européen ICARUS, qui vise à développer des systèmes efficaces de conversion de l'énergie solaire pour un avenir neutre en carbone. Le projet se concentre sur l'intégration de la séparation de l'eau par voie photoélectrochimique (PEC) et de la production d'énergie photovoltaïque (PV).

Principaux objectifs :
- Développer des cellules solaires pérovskites innovantes à base d'halogénures métalliques avec des bandes interdites accordables pour une plus grande absorption de la lumière.
- Optimiser les cellules solaires imprimées à base de carbone et les échafaudages pour améliorer la conductivité, la résistance mécanique et la durabilité.
- Incorporer des contre-électrodes de carbone innovantes dans les dispositifs pérovskites.
- Augmenter l'échelle et fabriquer des modules solaires.
- Intégrer les modules développés dans un prototype PEC final.

Axes de recherche :
Le candidat au doctorat se concentrera principalement sur :
- Cellules solaires imprimées à base de carbone : Optimisation des propriétés de l'encre, étude du comportement de l'encre conductrice imprimée dans diverses conditions et caractérisation de la conductivité et de la résistance mécanique.
- Dispositifs pérovskites : Incorporation de contre-électrodes innovantes en carbone et évaluation de leurs performances et de leur stabilité.
- Fabrication de modules : Mise à l'échelle et fabrication de modules solaires basés sur les technologies développées.
- Intégration du prototype PEC : Contribuer à l'intégration finale du prototype PEC.

Résultats attendus :
La recherche devrait contribuer au développement de systèmes de conversion de l'énergie solaire hautement efficaces et durables, favorisant la transition vers un avenir neutre en carbone. Les résultats auront des implications pour la recherche universitaire et les applications industrielles.

Magnétorésistances géantes pour la caractérisation locale de l’état magnétique de surface: vers des applications du type Contrôle Non-Destructif (CND)

Thèse Cifre dans le domaine du contrôle non destructif par utilisation de capteurs magnétiques en collaboration entre 3 partenaires :

-le Laboratoire de Nanomagnétisme et Oxyde (LNO) du CEA Paris-Saclay
-le Laboratoire de Génie Electrique et Ferroélectricité (LGEF) de l’INSA Lyon
-l’entreprise CmPhy

La grande majorité des aciers de structure et de construction utilisés par l’industrie du transport, de l’énergie et du bâtiment sont ferromagnétiques. Ces aciers possèdent la propriété de s’aimanter sous l’effet d’un champ externe et de conserver un état magnétique lors de sa disparition.

Les propriétés mécaniques et la microstructure sont des marqueurs forts qui permettent d’anticiper l’état de dégradation de ces pièces en acier. Ces informations qui sont fondamentales en production comme en maintenance peuvent être lues de façon indirecte et non-destructive à travers l’observation du comportement magnétique.

Dans cette thèse, nous proposons de développer des capteurs magnétiques de type magnétorésistance géante (GMR) pour remonter à l’état magnétique de surface et indirectement aux contraintes résiduelles, à la microstructure et au niveau de dégradation.
L’utilisation de l’effet de magnétorésistance géante (GMR), basé sur l’électronique de spin permet de développer des capteurs magnétiques innovants, extrêmement sensibles, détectant des champs magnétiques de l’ordre du nT/vHz. Leur taille peut être submicronique ce qui les rends complètements adaptés à la caractérisation de surface. Leur sensibilité est telle que l’effet du champ magnétique terrestre est suffisant pour induire une réponse magnétique mesurable. Ceci permet d’envisager un CND magnétique allégé ne nécessitant pas d’inducteur pour la génération du champ.

Les deux applications principales associées à cette thèse seront:

• Détection de défauts surfaciques ou sous surfaciques (de l’ordre du mm).
• Détecter des variations micro structurelles locales, des contraintes surfaciques ou des déformations plastiques.

Plusieurs aspects pourront être traités pendant la thèse. Une partie intégration dont le but est d’aller jusqu’à la mise au point d’un démonstrateur (un intérêt pour ce démonstrateur a déjà été signifié par de grands groupes industriels tel que Framatome, EDF, DGA, SAFRAN, etc.). Des mesures sur des échantillons tests et en conditions réelles seront en amont réalisées pour valider la technique. En parallèle, un outil de modélisation pour l’analyse des signaux sera développé afin de comprendre et interpréter les résultats.

La Financement CIFRE proposé repose sur la collaboration de 2 laboratoires académiques (le Laboratoire de Nanomagnétisme et Oxyde (LNO) du CEA Paris-Saclay, spécialiste des capteurs magnétiques et le Laboratoire de Génie Electrique et Ferroélectricité (LGEF) de l’INSA Lyon, spécialiste des matériaux magnétiques et de leur applications) et une entreprise CmPhy, qui conçoit et fabrique des équipements d'analyses et de contrôles CND ainsi que des bancs de caractérisation magnétiques.

IA générative pour la quantification robuste des incertitudes dans les problèmes inverses en astrophysiques

Contexte
Les problèmes inverses, c'est-à-dire l'estimation des signaux sous-jacents à partir d'observations corrompues, sont omniprésents en astrophysique, et notre capacité à les résoudre avec précision est essentielle à l'interprétation scientifique des données. Parmi les exemples de ces problèmes, on peut citer l'inférence de la distribution de la matière noire dans l'Univers à partir des effets de lentille gravitationnelle [1], ou la séparation des composantes dans l'imagerie radio-interférométrique [2].

Grâce aux récents progrès de l'apprentissage profond, et en particulier aux techniques de modélisation générative profonde (par exemple les modèles de diffusion), il est désormais possible non seulement d'obtenir une estimation de la solution de ces problèmes inverses, mais aussi d'effectuer une quantification de l'incertitude en estimant la distribution de probabilité a posteriori Bayésienne du problème, c'est-à-dire en ayant accès à toutes les solutions possibles qui seraient permises par les données, mais aussi plausibles en fonction des connaissances antérieures.

Notre équipe a notamment été pionnière dans l'élaboration de méthodes bayésiennes combinant notre connaissance de la physique du problème, sous la forme d'un terme de vraisemblance explicite, avec des à prioris basées sur les données et mises en œuvre sous la forme de modèles génératifs. Cette approche contrainte par la physique garantit que les solutions restent compatibles avec les données et évite les « hallucinations » qui affectent généralement la plupart des applications génératives de l'IA.

Cependant, malgré les progrès remarquables réalisés au cours des dernières années, plusieurs défis subsistent dans le cadre évoqué ci-dessus, et plus particulièrement :

[Données à priori imparfaites ou avec une distribution décalée] La construction de données à priori nécessite généralement l'accès à des exemples de données non corrompues qui, dans de nombreux cas, n'existent pas (par exemple, toutes les images astronomiques sont observées avec du bruit et une certaine quantité de flou), ou qui peuvent exister mais dont la distribution peut être décalée par rapport aux problèmes auxquels nous voudrions appliquer ce distribution à priori.
Ce décalage peut fausser les estimations et conduire à des conclusions scientifiques erronées. Par conséquent, l'adaptation, ou l'étalonnage, des antécédents basés sur les données à partir d'observations incomplètes et bruyantes devient cruciale pour travailler avec des données réelles dans les applications astrophysiques.

[Échantillonnage efficace de distributions a posteriori à haute dimension] Même si la vraisemblance et l'à priori basé par les données sont disponibles, l'échantillonnage correct et efficace de distributions de probabilités multimodales non convexes dans des dimensions si élevées reste un problème difficile. Les méthodes les plus efficaces à ce jour reposent sur des modèles de diffusion, mais elles s'appuient sur des approximations et peuvent être coûteuses au moment de l'inférence pour obtenir des estimations précises des distributions a posteriori souhaités.

Les exigences strictes des applications scientifiques sont un moteur puissant pour l'amélioration des méthodologies, mais au-delà du contexte scientifique astrophysique qui motive cette recherche, ces outils trouvent également une large application dans de nombreux autres domaines, y compris les images médicales [3].

Projet de doctorat
Le candidat visera à répondre à ces limitations des méthodologies actuelles, avec l'objectif global de rendre la quantification de l'incertitude pour les problèmes inverses à grande échelle plus rapide et plus précise.
Comme première direction de recherche, nous étendrons une méthodologie récente développée simultanément par notre équipe et nos collaborateurs de Ciela [4,5], basée sur l'algorithme d'espérance-maximisation, afin d'apprendre itérativement (ou d'adapter) des distributions à priori basés sur des méthodes de diffusion à des données observées sous un certain degré de corruption. Cette stratégie s'est avérée efficace pour corriger les décalages de la distribution á priori (et donc pour obtenir des distributions à posteriori bien calibrés). Cependant, cette approche reste coûteuse car elle nécessite la résolution itérative de problèmes inverses et le réentraînement des modèles de diffusion, et dépend fortement de la qualité du solveur de problèmes inverses. Nous explorerons plusieurs stratégies, notamment l'inférence variationnelle et les stratégies améliorées d'échantillonnage pour des problèmes inverses, afin de résoudre ces difficultés.
Dans une deuxième direction (mais connexe), nous nous concentrerons sur le développement de méthodologies générales pour l'échantillonnage de postérieurs complexes (géométries multimodales/complexes) de problèmes inverses non linéaires. En particulier, nous étudierons des stratégies basées sur le recuit (annealing) de la distribution à posteriori, inspirées de l'échantillonnage de modèles de diffusion, applicables dans des situations avec des vraisemblances et des distributions à priori explicites.
Finalement, nous appliquerons ces méthodologies à des problèmes inverses difficiles et à fort impact en astrophysique, en particulier en collaboration avec nos collègues de l'institut Ciela, nous viserons à améliorer la reconstruction des sources et des lentilles des systèmes de lentilles gravitationnelles fortes.
Des publications dans les meilleures conférences sur l'apprentissage automatique sont attendues (NeurIPS, ICML), ainsi que des publications sur les applications de ces méthodologies dans des revues d'astrophysique.

Références
[1] Benjamin Remy, Francois Lanusse, Niall Jeffrey, Jia Liu, Jean-Luc Starck, Ken Osato, Tim Schrabback, Probabilistic Mass Mapping with Neural Score Estimation, https://www.aanda.org/articles/aa/abs/2023/04/aa43054-22/aa43054-22.html

[2] Tobías I Liaudat, Matthijs Mars, Matthew A Price, Marcelo Pereyra, Marta M Betcke, Jason D McEwen, Scalable Bayesian uncertainty quantification with data-driven priors for radio interferometric imaging, RAS Techniques and Instruments, Volume 3, Issue 1, January 2024, Pages 505–534, https://doi.org/10.1093/rasti/rzae030

[3] Zaccharie Ramzi, Benjamin Remy, Francois Lanusse, Jean-Luc Starck, Philippe Ciuciu, Denoising Score-Matching for Uncertainty Quantification in Inverse Problems, https://arxiv.org/abs/2011.08698

[4] François Rozet, Gérôme Andry, François Lanusse, Gilles Louppe, Learning Diffusion Priors from Observations by Expectation Maximization, NeurIPS 2024, https://arxiv.org/abs/2405.13712

[5] Gabriel Missael Barco, Alexandre Adam, Connor Stone, Yashar Hezaveh, Laurence Perreault-Levasseur, Tackling the Problem of Distributional Shifts: Correcting Misspecified, High-Dimensional Data-Driven Priors for Inverse Problems, https://arxiv.org/abs/2407.17667

Radiothérapie avec électrons à très haute énergie issus d'un accélérateur de champ de sillage laser

Objectifs de la recherche :
Utiliser la modélisation numérique pour optimiser les propriétés des accélérateurs laser-plasma dans la gamme 50 MeV-200 MeV pour la radiothérapie VHEE :
(i) optimiser les propriétés d'un accélérateur laser-plasma (étalement de l'énergie, divergence) avec des faisceaux d'électrons injectés à partir d'un injecteur à miroir plasma en utilisant les codes WarpX et HiPACE++.
(ii) Étudier l'impact de ces faisceaux d'électrons sur l'ADN à l'aide de Geant4DNA.

Cette modélisation numérique sera ensuite utilisée pour guider/concevoir/interpréter des expériences de radiobiologie sur des échantillons biologiques in-vitro qui sont prévues dans notre installation laser interne de 100 TW au CEA pendant le projet. Ces expériences seront réalisées dans le cadre du projet de recherche FemtoDose financé par l'Agence Nationale de la Recherche.

Le chercheur bénéficiera d'une grande variété de formations disponibles au CEA sur le HPC et la programmation informatique, ainsi que de formations chez nos partenaires industriels (ARM, Eviden) et à l'Université Paris Saclay, qui propose des cours de maîtrise en radiobiologie et héberge également un centre de recherche (INanoTherad) dédié aux nouveaux traitements de radiothérapie, réunissant des physiciens, des radiobiologistes et des médecins. Les activités seront menées dans le cadre du réseau doctoral d'action Marie Sklodowska Curie EPACE (European compact accelerators, their applications, and entrepreneurship).

Exploration des instabilités à haute fréquence induites par les électrons rapides en vue d'une application sur WEST

Dans les tokamaks actuels, la distribution des électrons est fortement influencée par les systèmes de chauffage externes, tels que le chauffage par résonance cyclotron électronique (ECRH) ou le chauffage Lower Hybrid (LH), qui génèrent une importante population d’électrons rapides. Cela est également attendu dans les tokamaks de nouvelle génération, comme ITER, où une part substantielle de la puissance est déposée sur les électrons. Une population significative d’électrons rapides peut déstabiliser des instabilités, y compris les modes d’Alfvén (AE). Cependant, ce phénomène reste peu étudié, en particulier en ce qui concerne la population d’électrons déclenchant ces instabilités et l'impact des AE déstabilisés par les électrons sur la dynamique multi-échelle de la turbulence dans l'environnement complexe du plasma.
Ce PhD vise à explorer la physique des AE déstabilisés par les électrons dans des conditions de plasma réalistes, en appliquant ces connaissances aux expériences WEST pour une caractérisation approfondie de ces instabilités. Le candidat utilisera des codes numériques avancés, développés à l'IRFM, pour analyser les conditions de plasma réalistes avec AE déstabilisés par les électrons rapides, afin de saisir la physique essentielle en jeu. Un développement de code sera également nécessaire pour modéliser les aspects clés de cette physique. Une fois ces connaissances acquises, une modélisation prédictive pour l’environnement WEST orientera des expériences visant à observer ces instabilités.
Basé au CEA Cadarache, l’étudiant collaborera avec différentes équipes, du groupe de théorie et de modélisation à l’équipe expérimentale de WEST, et acquerra une expertise variée dans un environnement stimulant. Des collaborations avec les groupes de travail de l’EUROfusion offriront également une expérience internationale enrichissante.

Dévelopement d'algorithmes de trajectographie basés sur l'apprentissage machine pour le futur Upstream Tracker de LHCb au LHC

Cette proposition vise à développer et améliorer les futures performances de trajectographie de l'expérience LHCb au Grand collisionneur de hadrons (LHC) via l’étude de divers algorithmes basés sur l'apprentissage machine automatique. Parmi les systèmes de trajectographie de LHCb, le sous-détecteur Upstream Tracker (UT) joue un rôle crucial dans la réduction du taux de fausses traces reconstruites dès les premières étapes du processus de reconstruction. Dans l'optique de pouvoir mener à bien les futures études de désintégrations rares de particules, la violation CP dans le Modèle standard, et l'étude du plasma de Quark et Gluon dans les collisions Pb-Pb, une trajectographie précise dans LHCb est obligatoire.

Avec les mises à jour du détecteur prévues d'ici 2035 et l'augmentation anticipée des taux de données, les méthodes de trajectographie traditionnelles risquent de ne pas répondre aux exigences computationnelles, notamment dans les collisions noyau-noyau où des milliers de particules sont produites. Durant la thèse, nous explorerons une gamme de techniques basées sur l'apprentissage machine automatique, comme celles déjà appliquées avec succès dans le Vertex Locator (VELO) de LHCb, pour améliorer la performance de trajectographie de l'UT. En appliquant des méthodes variées, nous visons à améliorer la reconstruction des trajectoires aux premiers stades de la reconstruction, accroître l'efficacité de trajectographie et réduire le taux de fausses traces. Parmi ces techniques, les réseaux de neurones graphiques (Graph Neural Networks, GNN) représentent une option particulièrement prometteuse grâce à l'exploitation des corrélations spatiales et temporelles des hits du détecteur.

Cette exploration de nouvelles méthodes impliquera des développements adaptés au matériel hardware, qu’il s’agisse de GPU, CPU ou FPGA, tous potentiellement présent dans l'architecture de reconstruction du futur LHCb. Nous comparerons les différents algorithmes par rapport aux méthodes de trajectographie actuelles afin de quantifier les améliorations en termes de performance, de scalabilité et d'efficacité computationnelle. De plus, nous prévoyons d’intégrer les algorithmes les plus performants au sein du logiciel de LHCb de de garantir leur compatibilité avec les pipelines de données existants.

Dispositifs supraconducteurs en Silicium

The project focuses on the study of superconducting devices with silicon as a semiconductor. Those include standard silicon transistors with superconducting source and drain contacts and superconducting resonators. The common properties is the superconducting material which is elaborated with the constrain of being compatible with the silicon CMOS technology.
In the actual situation of the project, devices with CoSi2, PtSi and Si:B superconducting contacts have been fabricated using the 300 mm clean room facility at the LETI and in collaboration with our partners at Uppsala university and C2N Paris Saclay. The main issue is now to characterize the electronic transport properties at very low temperature.

Caliste-3D CZT: développement d’un spectro-imageur gamma miniature, monolithique et hybride à efficacité améliorée dans la gamme 100 keV à 1 MeV et optimisé pour la détection de l’effet Compton et la localisation sous-pixel

L’observation multi-longueur d’onde des sources astrophysiques est la clé d’une compréhension globale des processus physiques en jeu. En raison de contraintes instrumentales, la bande spectrale de 0,1 à 1 MeV est celle qui souffre le plus d’une sensibilité insuffisante de détection dans les observatoires existants. Ce domaine permet d’observer les noyaux actifs de galaxies les plus enfouis et les plus lointains pour mieux comprendre la formation et l’évolution des galaxies à des échelles cosmologiques. Il relève des processus de nucléosynthèse des éléments lourds de notre Univers et l’origine des rayons cosmiques omniprésents dans l’Univers. La difficulté intrinsèque de la détection dans ce domaine spectral réside dans l’absorption de ces photons très énergétiques après des interactions multiples dans le matériau. Cela requiert une bonne efficacité de détection mais également une bonne localisation de toutes les interactions pour en déduire la direction et l’énergie du photon incident. Ces enjeux de détection sont identiques pour d’autres applications à fort impact sociétal et environnemental : le démantèlement et l’assainissement des installations nucléaires, le suivi de la qualité de l’air, la dosimétrie en radiothérapie.
Cette thèse d’instrumentation a pour objectif de développer un détecteur « 3D » polyvalent, exploitable dans les domaines de l’astrophysique et de la physique nucléaire, avec une meilleure efficacité de détection dans la gamme 100 keV à 1 MeV et des évènements Compton, ainsi que la possibilité de localiser les interactions dans le détecteur à mieux que la taille d’un pixel.
Plusieurs groupes dans le monde, dont le nôtre, ont développé des spectro-imageurs X dur à base de semi-conducteurs haute densité pixélisés pour l’astrophysique (CZT pour NuSTAR, CdTe pour Solar Orbiter et Hitomi), pour le synchrotron (Hexitec UK, RAL) ou pour des applications industrielles (Timepix, ADVACAM). Leur gamme d’énergie reste toutefois limitée à environ 200 keV (sauf pour Timepix) en raison de la faible épaisseur des cristaux et de leurs limitations intrinsèques d’exploitation. Pour repousser la gamme en énergie au-delà du MeV, il faut des cristaux plus épais associés à des bonnes propriétés de transport des porteurs de charge. Cela est actuellement possible avec du CZT, mais nécessite néanmoins de relever plusieurs défis.
Le premier défi était la capacité des industriels à fabriquer des cristaux de CZT homogènes épais. Les avancées dans ce domaine depuis plus de 20 ans nous permettent aujourd’hui d’envisager des détecteurs jusqu’à au moins 10 mm d’épaisseur (Redlen, Kromek).
Le principal défi technique restant est l’estimation précise de la charge générée par interaction d’un photon dans le semi-conducteur. Dans un détecteur pixélisé où seules les coordonnées X et Y de l’interaction sont enregistrées, augmenter l’épaisseur du cristal dégrade les performances spectrales. Obtenir l’information de profondeur d’interaction Z dans un cristal monolithique permet théoriquement de lever le verrou associé. Cela nécessite le déploiement de méthodes expérimentales, de simulations physiques, de conception de circuits de microélectronique de lecture et de méthodes d’analyse de données originales. De plus, la capacité à localiser les interactions dans le détecteur à mieux que la taille d’un pixel contribue à résoudre ce défi.

Qubits volants dans le graphène

Les systèmes à l'état solide, actuellement envisagés pour le calcul quantique, sont construits à partir de systèmes localisés à deux niveaux, dont des exemples emblématiques sont les qubits supraconducteurs ou les points quantiques semi-conducteurs. Étant donné qu'ils sont localisés, ils nécessitent une quantité fixe de matériel par qubit.

Les qubits propagateurs ou "volants" présentent des avantages distincts par rapport aux qubits localisés : l'empreinte matérielle dépend uniquement des portes et des qubits eux-mêmes (photons), qui peuvent être créés à la demande, rendant ces systèmes facilement évolutifs. Un qubit qui combinerait les avantages des systèmes localisés et des qubits volants offrirait un changement de paradigme dans la technologie quantique. À long terme, la disponibilité de ces objets ouvrirait la possibilité de construire un ordinateur quantique universel combinant une petite empreinte matérielle fixe et un nombre arbitrairement grand de qubits avec des interactions à longue portée. Une approche prometteuse dans ce sens consiste à utiliser des électrons plutôt que des photons pour réaliser de tels qubits volants. L'avantage des excitations électroniques réside dans l'interaction de Coulomb, qui permet la mise en œuvre d'une porte à deux qubits.

L'objectif de ce doctorat sera le développement de la première plateforme nanoélectronique quantique pour la création, la manipulation et la détection d'électrons volants sur des échelles de temps allant jusqu'à la picoseconde, afin de les exploiter pour des technologies quantiques.

Nouveaux films minces multiferroïques artificiels hybrides à base d’oxynitrures

Les oxydes dopés N et/ou les oxynitrures constituent une classe de composés nouveaux et en plein essor présentant une large gamme de propriétés utilisables, en particulier pour les nouvelles technologies de production d'énergie décarbonée, les revêtements de surface pour l’amélioration de la tenue mécanique des aciers ou la protection contre la corrosion ainsi que pour des capteurs multifonctionnels. Dans ce domaine de recherche, la recherche de nouveaux matériaux est particulièrement souhaitable en raison des propriétés peu satisfaisantes des matériaux actuels. L'insertion d'azote dans le réseau cristallin d'un oxyde semiconducteur permet en principe de moduler sa structure électronique et ses propriétés de transport pour obtenir de nouvelles fonctionnalités. Une compréhension fine de ces aspects requiert des matériaux aussi parfaits que possibles. La production de films minces monocristallins correspondants, est cependant un défi important. Dans ce travail de thèse, des films d’oxynitrures monocristallins seront élaborés par épitaxie par jets moléculaires assistée de plasma atomique. L’hétérostructure multiferroïque combinera deux couches enrichies en azote : une couche ferroélectrique de BaTiO3 dopée N ainsi qu'une ferrite fortement dopée ferrimagnétique dont les propriétés magnétiques pourront être modulées grâce au dopage N pour obtenir de nouveaux matériaux multiferroïques artificiels plus satisfaisants pour les applications. Les structures résultantes seront étudiées quant à leurs caractéristiques ferroélectriques et magnétiques ainsi que de leurs couplages magnétoélectriques en fonction du dopage N. Ces observations seront corrélées à une compréhension détaillée des structures cristallines et électroniques. Ces dernières seront modélisées grâce à des calculs de structure électronique pour parvenir à une description complète de cette nouvelle classe de matériaux.

Le (la) candidate abordera l’ensemble des techniques d’ultra-vide, la croissance par épitaxie par jets moléculaires, des mesures ferroélectriques et de magnétométrie, ainsi qu’un large panel de méthodes de caractérisations basées sur l’exploitation des centres rayonnement synchrotron les plus avancés. Le dichroïsme magnétique des rayons X est particulièrement adapté à cette étude et le projet donnera lieu à une collaboration étroite et/ou un co-encadrement avec la ligne DEIMOS du synchrotron SOLEIL.

Top