Moniteur de Faisceau en Diamant pour la Thérapie FLASH
L'optimisation de la dose délivrée à la tumeur nécessite des techniques de traitement avancées. Une approche prometteuse consiste à délivrer la dose en utilisant l'irradiation à très haut débit de dose (Ultra High Dose Rate – UHDR ou radiothérapie FLASH), avec l'optimisation temporelle comme stratégie clé. Des études récentes ont mis en évidence l'efficacité de l'irradiation FLASH utilisant des électrons, montrant des capacités de destructions tumorales similaires à celles obtenues avec une irradiation conventionnelle mais avec un impact réduit sur les tissus sains. Pour exploiter pleinement ce potentiel, une nouvelle approche consistera à utiliser des faisceaux innovants, tels que les faisceaux d'électrons de haute énergie et à hauts débits de dose instantanés et présentant des doses par impulsion plusieurs ordres de grandeur supérieurs à ceux produits par les sources d’irradiation conventionnelles. Ces faisceaux prometteurs présentent un défi majeur pour leur monitoring et mesure, principalement en raison du débit de dose élevé pour lequel les systèmes de mesure actuels ne sont pas prévus de fonctionner.
Le Laboratoire de Capteurs et Instrumentation pour la Mesure (CEA-List) collaborera avec l'Institut Curie dans le cadre du projet FRATHEA. Nous proposons de développer un nouveau moniteur faisceau à base de diamant, connecté à une électronique dédiée, afin d'obtenir des mesures précises de la dose et de la forme des faisceaux pour des faisceaux d'électrons et de protons à haute énergie et haut débit de dose. Des techniques expérimentales interdisciplinaires, incluant la croissance de diamants, la microfabrication de dispositifs, la caractérisation des dispositifs sous sources radioactives et la caractérisation finale avec des faisceaux d'électrons et protons, seront utilisées pour le prototypage et l'évaluation du moniteur à faisceau en diamant.
Dans le cadre du projet FRATHEA, le doctorant travaillera sur les tâches suivantes :
· Croissance de structures de diamants monocristallin (scCVD) optimisées
· Caractérisation des propriétés électroniques des matériaux de diamant synthétisés
· Estimation des caractéristiques de réponse à la dose d'un prototype simplifié (brique élémentaire)
· Fabrication d'un moniteur de faisceau pixelisé
· Participation aux temps de faisceaux à l'Institut Curie pour les tests des dispositifs avec des faisceaux pré-cliniques
Compétences requises :
· Solide base en physique des semi-conducteurs et instrumentation
· Connaissance des détecteurs de rayonnement et des interactions rayonnement-matière
· Capacité à travailler efficacement en équipe et à faire preuve de rigueur technique dans les mesures
Compétences supplémentaires :
· Connaissances en électronique, y compris le traitement du signal, les amplificateurs, les oscilloscopes, etc.
· Familiarité avec la fabrication de dispositifs
· Expérience antérieure de travail avec des matériaux en diamant (atout mais pas obligatoire)
Profil :
· Niveau Master (M2) ou école d'ingénieur, spécialisation en mesures physiques ou instrumentation
Durée du doctorat : 3 ans
Date de début : Dernier semestre de 2025
Contact :
Michal Pomorski : michal.pomorski@cea.fr
Guillaume Boissonnat: guillaume.boissonnat@cea.fr
m.
Etudes des sources lasers à base d’alliage de GeSn pour la photonique Silicium moyen infra-rouge
Vous concevrez et fabriquerez en salle blanche des sources lasers et LEDS à base d’alliage GeSn. Ces nouveaux matériaux du groupe-IV à gap direct et épitaxié sur des wafers Si 200 mm sont considéré comme CMOS compatible et sont très prometteurs pour la réalisation de sources moyen infra-rouge bas coût. Vous caractériserez, sur un banc optique moyen infra-rouge, ces sources lumineuses, en vue de leur future intégration sur une plateforme photonique Germanium/Silicium. Enfin, vous évaluerez également la faisabilité de détection de gaz dans une gamme de concentrations de quelques dizaines à quelques milliers de ppm.
Les objectifs de la thèse sont de :
• Concevoir des empilements de GeSn (Si) efficaces confinant à la fois les électrons et les trous, tout en offrant un fort gain optique.
• Evaluer le gain optique sous pompage optique et injection électrique, à différentes contraintes et niveaux de dopage
• Concevoir et fabriquer des cavités laser à fort confinement optique
• Caractériser les composants fabriqués sous injection optique et électrique en fonction de leur état de déformation à température ambiante et à basse température.
• Obtenir des lasers continus du groupe-IV pompé électriquement
• Comprendre les phénomènes physiques pouvant impacter les performances des matériaux et des composants pour l’émission de lumière.
• Caractériser les meilleurs composants fabriqués pour des détections bas-couts de gaz environnementaux.
Ce travail impliquera des contacts avec des laboratoires étrangers travaillant sur le même sujet dynamique.
Validation d'un modèle d'attaquant pour les attaques laser sur les circuits intégrés
La sécurité des systèmes embarqués est aujourd'hui un enjeu fondamental dans de nombreux domaines : IoT, Automobile, Aéronautique, entre autres. Les attaques physiques sont une menace spécifique supposant un accès physique à la cible. En particulier, les attaques par injection de fautes sur les circuits intégrés (CI) permettent de perturber le système afin de récupérer des donnés confidentielles ou de contourner un mécanisme vérifiant l'intégrité du code exécuté sur une machine. En raison de leurs fortes capacités à générer des vulnérabilités, les développeurs doivent protéger leur système contre de telles attaques pour être conformes aux normes de sécurité telles que Common Criteria et FIPS.
Dans le contexte de la constante réduction des technologies silicium, et avec la transition vers les technologies FD-SOI, le modèle de vulnérabilité d'un CI doit être drastiquement révisé, du niveau transistor jusqu'à celui des circuits numériques complexes. Dans cette thèse, nous proposons d'étudier la validation du modèle d'attaquant à ce dernier niveau. L'objectif est de contribuer à la définition d'un modèle de vulnérabilité après la synthèse d'une description RTL d'un circuit (par exemple un microcontrôleur) dans une technologie FD-SOI 22 nm. Ces modèles contribueront à définir le modèle d'attaquant injecté en entrée d'outils de vérification formelle. Le candidat devra définir une méthodologie pour caractériser par des expériences laser les modèles multicouches et hétérogènes afin de fournir une analyse quantitative de leur limite de validité. La méthodologie sera testée sur des ASIC réalisés par le CEA dans le cadre de projets de R&D permettant d'avoir une maîtrise et une connaissance complète de l'architecture, des paramètres de conception et de synthèse et des codes exécutés.
Contrôle de manipulateur mobile à haute mobilité en contexte dynamique
Le développement de manipulateur mobile capable de capacités d’adaptation est porteur d’avancées importantes pour le développement de nouveaux moyens de production, que ce soit dans des applications industrielles ou agricoles. En effet de telles technologies permettent de réaliser des tâches répétitives avec précision et sans contraintes liées à la limitation de l’espace de travail. Néanmoins, l’efficience de tels robots est soumise à leur adaptation à la variabilité du contexte d’évolution et de la tâche à réaliser. Aussi, cette thèse propose de concevoir des mécanismes d’adaptation des comportements sensori-moteurs pour ce type de robots, afin de garantir une bonne adéquation de leurs actions en fonction de la situation. Elle envisage d’étendre les capacités de reconfiguration des approches de perception et de commande par l’apport de l’Intelligence Artificielle, ici comprise au sens de l’apprentissage profond. Il s’agira de développer de nouvelles architectures décisionnelles capables d’optimiser les comportements robotiques pour la manipulation mobile dans des contextes évolutifs (notamment intérieur-extérieur) et la réalisation de plusieurs travaux de précision.
Modélisation/Simulation de la synthèse de revêtements anti-corrosion par procédé MOCVD pour la production d’énergie décarbonée
La durabilité des matériaux utilisés dans de nombreux domaines de production d’énergie est limitée par leur dégradation dans l’environnement de fonctionnement, environnement très souvent oxydant et à haute température. C’est notamment le cas des Electrolyseurs à Haute Température (EHT) pour la production d’hydrogène "vert" ou les gaines des combustibles des réacteurs nucléaires pour la production d’électricité. Afin d’améliorer la durée de vie de ces installations et ainsi préserver les ressources, des revêtements anti-corrosion peuvent/doivent être appliqués. Un procédé de synthèse de revêtements par voie vapeur réactive avec des précurseurs organométalliques liquides (DLI – MOCVD) apparait comme un procédé très prometteur.
L’objectif de cette thèse est de modéliser et de simuler le procédé de synthèse de revêtement par DLI-MOCVD pour les deux applications proposées ci-dessus. Les résultats des simulations (vitesse de déposition, composition du dépôt, homogénéité spatiale) seront comparés aux résultats expérimentaux réalisés sur des réacteurs « pilote » de grande échelle au CEA afin d’optimiser les paramètres d’entrée du modèle. A partir de ce dialogue simulation CFD/expériences, les conditions optimales de dépôt sur un composant échelle 1 seront proposées. Un couplage simulations CFD/Machine Learning pour accélérer le changement d’échelle et l’optimisation des dépôts à l’échelle 1 sera développé.
Dosimétrie radiologique des accidents de grande échelle : utilisation de la spectroscopie RPE pour le tri de la population par la mesure d'écrans de smartphones.
Lors d’une urgence radiologique de grande ampleur impliquant des sources d’irradiation externe, il est nécessaire de disposer de méthodes permettant d’identifier, parmi la population, les personnes ayant été exposées et nécessitant une prise en charge prioritaire.A ce jour, il n’existe pas de méthodes opérationnelles permettant un tel tri. Les verres des écrans tactiles des smartphones gardent en« mémoire » la trace d’une irradiation aux rayonnements ionisants par le biais de la formation de défauts dits « radio-induits ». La mesure et la quantification de ces défauts ponctuels, notamment par spectroscopie à résonance paramagnétique électronique (RPE),permet d’estimer la dose déposée dans le verre et donc d’estimer l’exposition associée à l’irradiation. Le travail de thèse proposé ici s’intéresse notamment aux verres alkali-aluminosilicates utilisés dans les écrans tactiles des téléphones portables qui sont à ce jour les meilleurs candidats pour développer de nouvelles capacités de mesure dans le contexte de l’accident impliquant un grand nombre de victimes.
Nous nous concentrerons en particulier sur l'identification des défauts ponctuels en fonction du modèle de verre utilisé dans les smartphone par simulation des spectres RPE afin d'optimiser la méthode proposée de dosimétrie.
Module d’auto-adaptation d’antenne et synthèse d’impédance intégré dans la bande sub-6 GHz pour les applications RF de nouvelle génération
L’adoption croissante des systèmes RF sub-6 GHz pour la 5G, l’IoT et les technologies portables a créé une demande critique pour des solutions compactes, efficaces et adaptatives afin d’améliorer le transfert d’énergie, de réduire les effets de désaccord liés à l’environnement, et d’offrir des capacités avancées de détection. Cette thèse propose un système innovant sur puce (SoC) intégrant une unité d’accord d’antenne (ATU) et un module d’impédance synthétisée (SIM) pour répondre à ces défis. En combinant la mesure d’impédance in situ et une réadaptation dynamique, le système résout une limitation majeure des antennes miniatures : leur sensibilité extrême aux perturbations environnementales, telles que la proximité du corps humain ou des surfaces métalliques. De plus, l’intégration du module d’impédance synthétisée apporte une polyvalence supplémentaire en permettant l’émulation de charges complexes. Cette capacité optimise non seulement le transfert d’énergie, mais ouvre également la voie à des fonctionnalités avancées, comme la caractérisation de matériaux et la détection de l’environnement autour de l’antenne.
L’un des axes centraux de cette recherche est la co-intégration d’un analyseur de réseau vectoriel (VNA) avec un réseau de post-matching large bande (PMN) et un module d’impédance synthétisée. Cette architecture combinée offre une surveillance en temps réel de l’impédance, un ajustement dynamique et la génération de profils d’impédance spécifiques, essentiels pour caractériser la réponse de l’antenne dans différents scénarios. Un fonctionnement garanti dans la bande 100 MHz–6 GHz est assuré tout en maintenant une faible consommation d’énergie grâce à une gestion efficace des cycles d’activité.
Profil recherché : vous êtes passionné(e) par l’électronique et la microélectronique, et souhaitez contribuer à une avancée technologique majeure ? Nous recherchons un(e) candidat(e) motivé(e) et curieux(se), doté(e) des qualités suivantes :
. Formation : Diplômé(e) d’une école d’ingénieurs ou titulaire d’un master en électronique ou microélectronique.
. Compétences techniques :
Solides connaissances en technologies transistors (CMOS, Bipolaire, GaN…).
Expertise en conception analogique/RF.
Expérience avec des outils de conception tels qu’ADS et/ou Cadence.
Programmation : Compétences de base en Python, MATLAB ou autres langages similaires.
Expérience complémentaire : Une première expérience en conception de circuits intégrés serait un atout précieux.
. Pourquoi postuler : vous aurez l’opportunité de travailler sur des technologies de pointe au sein d’un environnement de recherche innovant et collaboratif. Vous serez accompagné(e) par des experts renommés du domaine pour relever des défis scientifiques et techniques stimulants.
Contacts : PhD.Ghita Yaakoubi KHBIZA : ghita.yaakoubikhbiza@cea.fr, HDR.Serge Bories : serge.bories@cea.fr
Modélisation de la réponse instrumentale des télescopes spatiaux avec un modèle optique différentiable
Contexte
L'effet de lentille gravitationnelle faible [1] est une sonde puissante de la structure à grande échelle de notre univers. Les cosmologistes utilisent l'effet de lentille faible pour étudier la nature de la matière noire et sa distribution spatiale. Les missions d'observation de l'effet de lentille faible nécessitent des mesures très précises de la forme des images de galaxies. La réponse instrumentale du télescope, appelée fonction d'étalement du point (PSF), produit une déformation des images observées. Cette déformation peut être confondue avec les effets d'un faible effet de lentille sur les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique lors de la recherche sur les faibles effets de lentille. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de faible lentille [2]. Le champ de la PSF peut être interprété comme un noyau convolutionnel qui affecte chacune de nos observations d'intérêt, qui varie spatialement, spectralement et temporellement. Le modèle de la PSF doit être capable de gérer chacune de ces variations. Nous utilisons des étoiles spécifiques considérées comme des sources ponctuelles dans le champ de vision pour contraindre notre modèle PSF. Ces étoiles, qui sont des objets non résolus, nous fournissent des échantillons dégradés du champ de la PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope. Ces dégradations comprennent le sous-échantillonnage, l'intégration sur la bande passante de l'instrument et le bruit additif. Nous construisons finalement le modèle de la PSF en utilisant ces observations dégradées et utilisons ensuite le modèle pour déduire la PSF à la position des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Voir [3] pour un article récent sur la modélisation de la PSF.
La mission Euclid récemment lancée représente l'un des défis les plus complexes pour la modélisation de la PSF. En raison de la très large bande passante de l'imageur visible (VIS) d'Euclid, allant de 550 nm à 900 nm, les modèles de PSF doivent capturer non seulement les variations spatiales du champ de PSF, mais aussi ses variations chromatiques. Chaque observation d'étoile est intégrée avec la distribution d'énergie spectrale (SED) de l'objet sur l'ensemble de la bande passante du VIS. Comme les observations sont sous-échantillonnées, une étape de super-résolution est également nécessaire. Un modèle récent appelé WaveDiff [4] a été proposé pour résoudre le problème de modélisation de la PSF pour Euclid et est basé sur un modèle optique différentiable. WaveDiff a atteint des performances de pointe et est en train d'être testé avec des observations récentes de la mission Euclid.
Le télescope spatial James Webb (JWST) a été lancé récemment et produit des observations exceptionnelles. La collaboration COSMOS-Web [5] est un programme à grand champ du JWST qui cartographie un champ contigu de 0,6 deg2. Les observations de COSMOS-Web sont disponibles et offrent une occasion unique de tester et de développer un modèle précis de PSF pour le JWST. Dans ce contexte, plusieurs cas scientifiques, en plus des études de lentille gravitationnelle faible, peuvent grandement bénéficier d'un modèle PSF précis. Par exemple, l'effet de lentille gravitationnel fort [6], où la PSF joue un rôle crucial dans la reconstruction, et l'imagerie des exoplanètes [7], où les speckles de la PSF peuvent imiter l'apparence des exoplanètes, donc la soustraction d'un modèle de PSF exact et précis est essentielle pour améliorer l'imagerie et la détection des exoplanètes.
Projet de doctorat
Le candidat visera à développer des modèles PSF plus précis et plus performants pour les télescopes spatiaux en exploitant un cadre optique différentiable et concentrera ses efforts sur Euclid et le JWST.
Le modèle WaveDiff est basé sur l'espace du front d'onde et ne prend pas en compte les effets au niveau du pixel ou du détecteur. Ces erreurs au niveau des pixels ne peuvent pas être modélisées avec précision dans le front d'onde car elles se produisent naturellement directement sur les détecteurs et ne sont pas liées aux aberrations optiques du télescope. Par conséquent, dans un premier temps, nous étendrons l'approche de modélisation de la PSF en tenant compte de l'effet au niveau du détecteur en combinant une approche paramétrique et une approche basée sur les données (apprises). Nous exploiterons les capacités de différenciation automatique des cadres d'apprentissage automatique (par exemple TensorFlow, Pytorch, JAX) du modèle WaveDiff PSF pour atteindre l'objectif.
Dans une deuxième direction, nous envisagerons l'estimation conjointe du champ de la PSF et des densités d'énergie spectrale (SED) stellaires en exploitant des expositions répétées ou des dithers. L'objectif est d'améliorer et de calibrer l'estimation originale de la SED en exploitant les informations de modélisation de la PSF. Nous nous appuierons sur notre modèle PSF, et les observations répétées du même objet changeront l'image de l'étoile (puisqu'elle est imagée sur différentes positions du plan focal) mais partageront les mêmes SED.
Une autre direction sera d'étendre WaveDiff à des observatoires astronomiques plus généraux comme le JWST avec des champs de vision plus petits. Nous devrons contraindre le modèle de PSF avec des observations de plusieurs bandes pour construire un modèle de PSF unique contraint par plus d'informations. L'objectif est de développer le prochain modèle de PSF pour le JWST qui soit disponible pour une utilisation généralisée, que nous validerons avec les données réelles disponibles du programme COSMOS-Web JWST.
La direction suivante sera d'étendre les performances de WaveDiff en incluant un champ continu sous la forme d'une représentation neuronale implicite [8], ou de champs neuronaux (NeRF) [9], pour traiter les variations spatiales de la PSF dans l'espace du front d'onde avec un modèle plus puissant et plus flexible.
Enfin, tout au long de son doctorat, le candidat collaborera à l'effort de modélisation de la PSF par les données d'Euclid, qui consiste à appliquer WaveDiff aux données réelles d'Euclid, et à la collaboration COSMOS-Web pour exploiter les observations du JWST.
Références
[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. I. Liaudat et al. “Multi-CCD modelling of the point spread function”. In: A&A 646 (2021), A27. doi:10.1051/0004-6361/202039584.
[3] T. I. Liaudat, J.-L. Starck, and M. Kilbinger. “Point spread function modelling for astronomical telescopes: a review focused on weak gravitational lensing studies”. In: Frontiers in Astronomy and Space Sciences 10 (2023). doi: 10.3389/fspas.2023.1158213.
[4] T. I. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Rethinking data-driven point spread function modeling with a differentiable optical model”. In: Inverse Problems 39.3 (Feb. 2023), p. 035008. doi:10.1088/1361-6420/acb664.
[5] C. M. Casey et al. “COSMOS-Web: An Overview of the JWST Cosmic Origins Survey”. In: The Astrophysical Journal 954.1 (Aug. 2023), p. 31. doi: 10.3847/1538-4357/acc2bc.
[6] A. Acebron et al. “The Next Step in Galaxy Cluster Strong Lensing: Modeling the Surface Brightness of Multiply Imaged Sources”. In: ApJ 976.1, 110 (Nov. 2024), p. 110. doi: 10.3847/1538-4357/ad8343. arXiv: 2410.01883 [astro-ph.GA].
[7] B. Y. Feng et al. “Exoplanet Imaging via Differentiable Rendering”. In: IEEE Transactions on Computational Imaging 11 (2025), pp. 36–51. doi: 10.1109/TCI.2025.3525971.
[8] Y. Xie et al. “Neural Fields in Visual Computing and Beyond”. In: arXiv e-prints, arXiv:2111.11426 (Nov.2021), arXiv:2111.11426. doi: 10.48550/arXiv.2111.11426. arXiv: 2111.11426 [cs.CV].
[9] B. Mildenhall et al. “NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis”. In: arXiv e-prints, arXiv:2003.08934 (Mar. 2020), arXiv:2003.08934. doi: 10.48550/arXiv.2003.08934. arXiv:2003.08934 [cs.CV].
Génération assistée par l'IA de simulateurs d’architectures numériques
Les outils de simulation d'architectures numériques reposent sur divers types de modèles, de niveaux d’abstraction différents, afin de répondre aux exigences de la co-conception et de la co-validation matériel/logiciel. Parmi ces modèles, ceux de plus haut niveau permettent la validation fonctionnelle rapide de logiciels sur les architectures cibles.
Ces modèles fonctionnels sont souvent élaborés de manière manuelle, une tâche à la fois fastidieuse et sujette aux erreurs. Lorsque des descriptions de bas niveau en RTL (Register Transfer Level) sont disponibles, elles deviennent une source à partir de laquelle des modèles de plus haut niveau, tels que les modèles fonctionnels, ou simulateurs rapides, peuvent être déduits. Des travaux préliminaires au CEA ont permis d'obtenir un prototype initial basé sur MLIR (Multi-Level Intermediate Representation), démontrant des résultats prometteurs dans la génération de fonctions d'exécution d'instructions à partir de descriptions RTL.
L'objectif de cette thèse est d'approfondir ces travaux, puis d'automatiser l'extraction des états architecturaux en s'inspirant des dernières avancées en matière d'apprentissage automatique pour l'EDA. Le résultat attendu est un flot complet de génération automatique de simulateurs fonctionnels à partir de RTL, garantissant ainsi, par construction, une consistance sémantique entre les deux niveaux d'abstraction.
Développement d’un outil de comparaison multi-critères des systèmes de stockage électrochimiques stationnaires
L’utilisation de systèmes de stockage stationnaire apparaît aujourd’hui incontournable pour accompagner l’évolution du réseau électrique et l’intégration croissante d’énergies renouvelables intermittentes comme le solaire ou l’éolien. Le choix d’une solution de stockage fait appel à de nombreux critères tels que les performances, la durée de vie mais aussi l’impact environnemental, la sécurité, les contraintes règlementaires, sans oublier l’aspect économique.
Le laboratoire dispose d’éléments de comparaison sur ces différents critères, via des études expérimentales et un retour d’expérience sur des systèmes existants. En outre, un premier outil logiciel a été développé pour l’évaluation de l’impact environnemental par ACV (analyse du cycle de vie). L’objectif de ce travail de thèse est d’intégrer ces différentes composantes dans un outil de comparaison plus large avec une approche multi-critères, en ciblant des cas d’étude précis et un nombre limité de technologies de stockage ayant atteint une maturité suffisante pour que les données disponibles soient fiables.