Pronostic de salissures des modules PV via la modélisation de l'environnement réel et la fusion de données

Les centrales photovoltaïques (PV) notamment celles installées dans des zones sujettes aux salissures, telles que les régions sèches, ainsi que les sites marins et agricoles, peuvent subir des pertes énergétiques allant jusqu'à 20 à 30 % par an. Cela représente des pertes financières dépassant 10 milliards d'euros en 2023.
Cette Thèse vise à développer une méthode robuste et complète pour prédire l’accumulation de salissures des modules/systèmes PV, en combinant la modélisation de l’environnement réel et les données opérationnelles PV (électriques, thermiques, optiques). La Thèse sera réalisée dans une approche ascendante en trois étapes :

1. Niveau composant/module PV : Reproduction et modélisation de l’accumulation de salissures en laboratoire, suivies d’une validation expérimentale. Ce travail s’appuiera sur les compétences du CEA en modélisation des mécanismes de dégradation, y compris les tests accélérés.

2. Niveau module/système PV : Mise en place de campagnes de monitoring pour collecter des données (météorologiques, opérationnelles, imagerie) et essais sur un site pilote. Les données serviront à valider et améliorer les outils de diagnostic du CEA, en ajoutant des fonctions innovantes comme la prédiction de la propagation des salissures grâce à l’IA.

3. Niveau système/exploitation PV : Validation de la méthode sur des modules PV commerciaux dans des centrales PV, avec pour objectif de démontrer son applicabilité à grande échelle.

Les résultats de la Thèse contribueront au développement d'un outil/méthode innovant pour le diagnostic/pronostic complet des salissures dans les installations PV, permettant à la fois de minimiser les pertes d'énergie et d'anticiper/optimiser les stratégies de nettoyage d'une centrale PV.

Apprentissage de Modèles Interprétables pour la Corrosion sous Contrainte des aciers inoxydables exposés en milieu primaire des REP

La corrosion sous contrainte (CSC) des aciers inoxydables est l'un des principaux phénomènes de dégradation des composants du circuit primaire des Réacteurs à Eau Pressurisée(REP). La compréhension de ce mécanisme de fissuration est d’une nécessité absolue pour la prolongation de la durée d’exploitation des réacteurs. Avec un nombre important de paramètres critiques qui influent sur la sensibilité du matériau à la CSC et la présence de forts effets de couplage, une grille d’essais expérimentaux assez conséquente est souvent envisagée pour aider à la compréhension du mécanisme. Il est proposé dans ce projet d’adopter une approche nouvelle basée sur l’utilisation de modèles interprétables, avec pour but d’éviter les longues et couteuses étapes de recherches en ciblant des essais pertinents et des paramètres matériaux pouvant améliorer les performances en environnement. L’enjeu ici sera d’ajouter à l’approche expérimentale les performances d’un outil d’intelligence artificielle avec pour objectifs de définir des domaines de sensibilité à l’amorçage de CSC en fonction des paramètres critiques identifiés dans le modèle, et de fournir des données relatives à l’élaboration de nouveaux matériaux par fabrication additive.
La thèse sera consacrée au développement d’un outil numérique adapté à ce nouveau cas d’usage et à la poursuite des activités expérimentales nécessaires à la validation de cette nouvelle approche. Il s’agira d’explorer les contributions de l’intelligence artificielle dans le domaine de la corrosion sous contrainte sur plusieurs volets : l'identification des paramètres au premier ordre sur la sensibilité du matériau, l'évaluation des domaines de criticité à la CSC et l'aide à la compréhension des mécanismes physiques à l’origine de la fissuration.

Architecture évolutive de clusters programmables basée sur un réseau sur puce (NoC) pour les applications d'IA futures

Contexte technique et scientifique
L'intelligence artificielle (IA) s'impose aujourd'hui comme un domaine majeur, touchant des secteurs variés tels que la santé, l'automobile, la robotique, et bien d'autres encore. Les architectures matérielles doivent désormais faire face à des exigences toujours plus élevées en matière de puissance de calcul, de faible latence et de flexibilité. Le réseau sur puce (NoC, Network-on-Chip) est une technologie clé pour répondre à ces défis, offrant une interconnexion efficace et scalable au sein de systèmes multiprocesseurs. Cependant, malgré ses avantages, la conception de NoC pose des défis importants, notamment en termes d'optimisation de la latence, de la consommation d’énergie et de l’évolutivité.
Les architectures de clusters programmables s'avèrent particulièrement prometteuses pour l'IA, car elles permettent d’adapter les ressources en fonction des besoins spécifiques des algorithmes d'apprentissage profond et d'autres applications d'IA intensives. En combinant la modularité des clusters avec les avantages des NoC, il est possible de concevoir des systèmes capables de traiter des charges de travail d'IA toujours plus importantes, tout en assurant une efficacité énergétique et une flexibilité maximales.
Description du Sujet
Le sujet de thèse propose la conception d'une architecture de cluster programmable, scalable, basée sur un réseau sur puce, dédiée aux futures applications d'IA. L'objectif principal sera de concevoir et d'optimiser une architecture NoC qui permettra de répondre aux besoins des applications d'IA en termes de calcul intensif et de transmission de données efficace entre les clusters de traitement.
Les travaux de recherche se concentreront sur les aspects suivants :
1. Conception de l'architecture NoC : Développer un réseau sur puce évolutif et programmable qui permette de connecter de manière efficace les différents clusters de traitement de l’IA.
2. Optimisation des performances et de l'efficacité énergétique : Définir des mécanismes pour optimiser la latence et la consommation d'énergie du système, en fonction de la nature des charges de travail d'IA.
3. Flexibilité et programmabilité des clusters : Proposer une architecture modulaire et programmable permettant d’allouer les ressources de manière dynamique selon les besoins spécifiques de chaque application d'IA.
4. Évaluation expérimentale : Implémenter et tester des prototypes de l'architecture proposée pour valider ses performances sur des cas d’utilisation concrets, tels que la classification d'images, la détection d'objets ou le traitement de données en temps réel.
Les résultats de cette recherche pourront contribuer à l’élaboration de systèmes embarqués et de solutions d’IA de pointe, optimisés pour les nouvelles générations d'applications et d’algorithmes d'intelligence artificielle.
Les travaux seront valorisés à travers la rédaction de publications scientifiques dans des conférences et des journaux, ainsi que potentiellement des brevets.

Estimation rapide des paramètres des ondes gravitationnelles pour la mission spatiale LISA

Contexte
En 2016, l'annonce de la première détection directe d'ondes gravitationnelles a ouvert une ère où l'univers sera sondé de manière inédite. Parallèlement, le succès de la mission LISA Pathfinder a permis de valider certaines technologies sélectionnées pour le projet LISA (Laser Interferometer Space Antenna). L'année 2024 a commencé avec l'adoption de la mission LISA par l'Agence spatiale européenne (ESA) et la NASA. Cet observatoire spatial des ondes gravitationnelles sans précédent sera composé de trois satellites distants de 2,5 millions de kilomètres et permettra la détection directe d'ondes gravitationnelles à des fréquences indétectables par les interféromètres terrestres. L'ESA prévoit un lancement en 2035.
Parallèlement aux aspects techniques, la mission LISA présente plusieurs défis en matière d'analyse des données qui doivent être relevés pour assurer le succès de la mission. La mission doit prouver qu'avec des simulations, la communauté scientifique sera en mesure d'identifier et de caractériser les signaux d'ondes gravitationnelles détectés. L'analyse des données comporte plusieurs étapes, dont le pipeline d'analyse rapide, dont le rôle est de détecter de nouveaux événements et de caractériser les événements détectés. Le dernier point concerne l'estimation rapide de la position dans le ciel de la source d'émission des ondes gravitationnelles et de leur temps caractéristique, comme le temps de coalescence pour une fusion de trous noirs.
Ces outils d'analyse constituent le pipeline d'analyse à faible latence. Outre son intérêt pour LISA, ce pipeline joue également un rôle essentiel pour permettre l'astronomie multi-messagers, qui consiste à surveiller rapidement les événements détectés par des observations électromagnétiques (observatoires terrestres ou spatiaux, des ondes radio aux rayons gamma).

Projet de doctorat
Le projet de doctorat se concentre sur le développement d'outils de détection et d'identification d'événements pour le pipeline d'alerte à faible latence (LLAP) de LISA. Ce pipeline sera une partie essentielle du flux de travail d'analyse de LISA, fournissant une détection rapide des binaires de trous noirs massifs, ainsi qu'une estimation rapide et précise des localisations du ciel des sources ainsi que du temps de coalescence. Ces informations sont essentielles pour les suivis multi-messager ainsi que pour l'analyse globale des données de LISA.
Alors que des méthodes d'analyse rapide ont été développées pour les interféromètres terrestres, le cas des interféromètres spatiaux tels que LISA reste un domaine à explorer. Un traitement adapté des données devra prendre en compte la façon dont les données sont transmises par paquets, ce qui rendra nécessaire la détection d'événements à partir de données incomplètes. En utilisant des données entachées d'artefacts tels que des glitchs ou des paquets de données manquants, ces méthodes devraient permettre la détection, la discrimination et l'analyse de diverses sources : fusions de trous noirs, EMRI (binaires spirales avec des rapports de masse extrêmes), sursauts et binaires provenant d'objets compacts. Un dernier élément de complexité crucial est la rapidité d'analyse, qui constitue une contrainte forte pour les méthodes à développer.
A cette fin, les problèmes que nous aborderons au cours de cette thèse seront les suivants :
1. L'inférence rapide des paramètres des ondes gravitationnelles, notamment la position du ciel et le temps de coalescence. Deux des principales difficultés résident dans la multimodalité de la distribution de probabilité a posteriori des paramètres cibles et dans les exigences strictes en matière de temps de calcul. À cette fin, nous envisagerons différentes stratégies d'inférence avancées, notamment
(a) L'utilisation d'algorithmes d'échantillonnage basés sur le gradient comme les diffusions de Langevin ou les méthodes de Monte Carlo Hamiltoniennes adaptées au problème des ondes gravitationnelles de LISA,
(b) l'utilisation de méthodes assistées par l'apprentissage automatique pour accélérer l'échantillonnage (par exemple, les normalising flows),
(c) l'utilisation de techniques d'inférence variationnelle.
2. Détection précoce des fusions de trous noirs.
3. La complexité croissante des données LISA, y compris, entre autres, un bruit réaliste, une réponse réaliste de l'instrument, des glitches, des données manquantes et des sources qui se superposent.
4. Le traitement en ligne des paquets de données de 5 minutes avec le cadre d'inférence rapide développé.
Cette thèse sera basée sur l'application de méthodes bayésiennes et statistiques pour l'analyse des données et l'apprentissage automatique. Cependant, un effort sur la partie physique est nécessaire, à la fois pour comprendre les simulations et les différentes formes d'ondes considérées (avec leurs hypothèses sous-jacentes) et pour interpréter les résultats concernant la détectabilité des signaux de fusion de trous noirs dans le contexte de l'analyse rapide des données LISA.

Spectrométrie et Intelligence Artificielle : développement de modèles IA explicables, sobres et fiables pour l'analyse de matériaux

La découverte de nouveaux matériaux est cruciale pour répondre à de nombreux défis sociétaux actuels. Un des piliers de cette capacité de découverte et de disposer de moyens de caractérisation de ces matériaux qui soient rapides, fiables et dont les incertitudes de mesure soient qualifiées, voire quantifiées.

Ce projet de thèse s’inscrit dans cette démarche et vise à l'exploitation optimale des différentes techniques de spectrométrie induite par faisceaux d'ions (IBA) en utilisant des méthodes d'intelligence artificielle (IA) avancées. Ce projet se donne pour cadre le développement de modèles IA explicables, sobres et fiables pour l'analyse de matériaux.

Le sujet de thèse proposé ici se donne trois objectifs principaux :
- Développer un modèle d'incertitude utilisant des techniques d’apprentissage automatique sur des bases probabilistes pour quantifier les incertitudes associées à une prédiction.
- Du fait du très grand nombre de configurations qu'il est possible de générer par analyse combinatoire, Il convient de bien comprendre la dimensionnalité intrinsèque du problème. Nous souhaitons mettre en place des moyens de réduction massive de dimensionnalité, notamment des méthodes non linéaires telles que les autoencodeurs, ainsi que des concepts de PIML (Physics Informed Machine Learning).
- Évaluer la possibilité de généralisation de cette méthodologie à d’autres techniques spectroscopiques.

Diffusion des rayons X assistée par Intelligence Artificielle : le problème de la représentativité des bases de données synthétiques et de l’indiscernabilité des prédictions.

L’avènement de l’intelligence artificielle rend envisageable l’accélération et la démocratisation du traitement de données de diffusion des rayons X aux petits angles (SAXS), une technique experte de caractérisation de nanomatériaux qui permet de déterminer la surface spécifique, la fraction volumique et les tailles caractéristiques de structures entre 0.5 à 200 nm.

Or, il y a une double problématique autour du SAXS assisté par Intelligence artificielle : 1) la rareté des données impose d’entraîner les modèles sur des données synthétiques, ce qui pose le problème de leur représentativité des données réelles, et 2) les lois de la physique stipulent qu’à une mesure de SAXS peuvent correspondre plusieurs nanostructures candidates, ce qui pose le problème de l’indiscernabilité des prédictions. Cette thèse vise donc à bâtir un modèle d’intelligence artificielle adapté au SAXS entraîné sur des données synthétiques validées expérimentalement, et sur la réponse experte qui pondère la catégorisation des prédictions par leur indiscernabilité.

Inférence Bayesienne avec des simulateurs différentiables pour l'analyse jointe de la distribution des galaxies et du lentillage du CMB

L'objectif de ce projet de doctorat est de développer une nouvelle analyse conjointe de la distribution des galaxies mesurées par l'instrument DESI et de la mesure de Planck PR4/ACT de lentillage du fonds diffus cosmologique (CMB), en se basant sur des simulations numériques des relevés et les méthodes d'apprentissage automatique et les techniques d'inférence statistique les plus modernes. L'objectif est de surmonter les approches traditionnelles et d'améliorer la récupération des paramètres cosmologiques.
cosmologiques. L'inférence jointe des données de DESI et de Planck/ACT améliorera de manière significative les contraintes sur la croissance de la structure par rapport aux analyses DESI uniquement et de raffiner plus encore les tests de la relativité générale.

Révolutionner l'intervention en milieux complexes : L'IA et les Jumeaux numériques en synergie pour des solutions innovantes et efficaces.

Contexte scientifique
L’exploitation d’équipements complexes, notamment dans le secteur nucléaire, repose sur l’accès rapide et sécurisé à des données hétérogènes. Les avancées en IA générative, combinées aux Jumeaux Numériques (JN), offrent des solutions innovantes pour améliorer les interactions humain-système. Cependant, l’intégration de ces technologies dans des environnements critiques nécessite des approches adaptées pour garantir intuitivité, sécurité et efficacité.
Travail proposé
Cette thèse propose de développer une architecture d’IA générative enrichie par des données métiers et accessible via la réalité mixte, permettant à un opérateur de boite à gants de poser des questions en langage naturel. Les travaux incluent :
1. Une revue de l’état de l’art sur la génération augmentée (RAG), les technologies ASR/TTS et les JN.
2. Le développement et l’intégration d’un chatbot pour l’exploitation nucléaire.
3. L’évaluation des interactions humain-IA et la définition de métriques d’efficacité et d’adoption.
Résultats attendus
Le projet vise à améliorer la sécurité et la productivité grâce à une interaction optimisée et à proposer des guidelines pour l’adoption de ces systèmes dans des environnements critiques.

Apport de l’IA sur les calculs neutroniques déterministes de réacteurs SMR-REP pilotés en eau claire

Face aux enjeux climatiques, la recherche d'énergies propres et fiables se concentre sur le développement de petits réacteurs modulaires à eau sous pression (SMR de type REP), d’une puissance de 50 à 1000 MWth, qui visent à décarboner la production d'électricité et de chaleur dans la prochaine décennie. En comparaison des réacteurs en exploitation, leur taille réduite peut permettre de simplifier leur conception en n'utilisant pas de bore soluble dans l’eau du circuit primaire. Le pilotage repose alors principalement sur le niveau d’insertion des barres absorbantes, qui perturbent la distribution spatiale de puissance lorsqu’elles sont fortement insérées, ce qui provoque des pics de puissance plus prononcés que dans un cœur géré au bore soluble, et complique la gestion de la réactivité. Estimer correctement ces paramètres pose alors des défis en matière de modélisation neutronique, en particulier les effets de l’historique d’insertion des absorbants sur l’évolution isotopique du combustible. Une thèse achevée en 2022 a exploré ces effets à l’aide d’un modèle neutronique analytique, mais des difficultés subsistent car les mouvements d’absorbants neutroniques ne sont pas les seuls phénomènes à influer sur le spectre neutronique. La thèse proposée cherche à développer une méthode alternative qui permette de gagner en robustesse, tout en cherchant à réduire encore les biais de calculs. Une analyse de sensibilité sera réalisée pour identifier les paramètres clés, permettant de créer un méta-modèle utilisant l'intelligence artificielle pour corriger les biais des modèles existants. Ce projet, en collaboration avec l'IRSN et le CEA, permettra d'acquérir une expertise en physique des réacteurs, en simulations numériques et en machine learning.
Le travail de thèse sera effectué 18 mois au CEA de Cadarache et 18 mois à l’IRSN de Fontenay-aux-Roses.

Prédire la solubilité grâce à l’IA pour innover en hydrométallurgie

L’un des challenges de l’hydrométallurgie est de parvenir à trouver une molécule extractante à la fois sélective et efficace. Pour ce faire, il faut choisir parmi des milliers de possibilités, action impossible à réaliser par une méthode synthèse-test. A la place, de nombreuses études se basent sur des calculs quantiques pour évaluer l’efficacité d’un ligand à partir de la stabilité du complexe. Cependant, ces méthodes ne permettent pas de prendre en compte certains paramètres physico-chimiques essentiels à une extraction efficace tels que la solubilité.
Ce projet a donc pour objectif de développer un outil informatique basé sur l’IA capable de prédire la solubilité d’une molécule dans un solvant donné à partir de sa structure moléculaire. Dans un premier temps, l’étude se focalisera sur 3 solvants : l’eau, pour laquelle des outils pré-existants serviront de référence, l’acide nitrique 3 M pour être dans des conditions usuelles de l’industrie nucléaire, et l’octanol, solvant organique utilisé pour déterminer le coefficient de partage logP. Le projet se découpe en 4 jalons principaux :
1)Etude bibliographique d’outils similaires existants permettant de choisir les voies les plus prometteuses
2)Recherche de bases de données et complétion si nécessaire par des expériences de solubilité en laboratoire
3)Modification/création du code et entraînement du réseau de neurones sur les bases de données ainsi établies
4)Vérifications des prédictions sur des molécules non-incluses dans les bases de données par comparaison avec des mesures en laboratoire

Top