Impression 4D de matériaux composites thermo-magnétiques à l'aide de techniques de fabrication additive pilotées par la lumière

Ce projet de recherche doctorale explore le domaine de l'impression 4D, qui intègre des matériaux intelligents dans les processus de fabrication additive. L'objectif est de créer des objets nanocomposites dotés de capacités multifonctionnelles, leur permettant de changer de forme et de propriétés en réponse à des stimuli externes.

Dans ce projet de doctorat, nous nous concentrerons principalement sur les élastomères à cristaux liquides (LCE) en tant que matrice active. Les LCE sont une classe de matériaux polymères programmables qui peuvent subir une déformation réversible sous l'effet de divers stimuli, tels que la lumière, la chaleur, les champs électriques et les champs magnétiques, en passant d'une phase désordonnée à une phase orientée. En raison de leurs propriétés d'actionnement, les LCE sont des candidats prometteurs pour des applications telles que les muscles artificiels en médecine et la robotique douce.

Par conséquent, le premier objectif du projet est de concevoir une méthode d'impression 3D des résines LCE à l'aide de processus d'impression pilotés par la lumière, notamment le traitement numérique de la lumière (DLP), l'écriture directe à l'encre (DIW) et la polymérisation à deux photons (2PP). Le projet explore également la possibilité d'une co-impression à l'aide de deux sources laser de longueurs d'onde différentes. Il en résultera des objets capables de déformations programmées et de réversibilité.

Pour améliorer encore les capacités d'actionnement des matrices LCE, des particules magnétiques seront incorporées dans la résine LCE thermosensible. Ainsi, le deuxième objectif du projet est de développer une stratégie d'auto-assemblage et d'orientation spatiale des nanoparticules magnétiques intégrées dans les résines LCE pendant les processus d'impression par la lumière (DLP, DIW, 2PP).
Enfin, le troisième objectif de ce projet est de combiner ces deux stratégies pour créer des dispositifs souples multifonctionnels complexes adaptés à différents environnements. Le projet suivra une approche incrémentale par essais et erreurs, dans le but d'améliorer les modèles d'apprentissage automatique en concevant des objets sur mesure.

Les travaux de recherche envisagés peuvent être résumés par les macro-étapes suivantes :

- Spécification des changements de forme de la cible en fonction des multiples scénarios de stimulation
- Sélection des particules actives, formulation de la LCE et synthèse des particules
- Développement de stratégies de fabrication additive hybride avec instrumentation possible
- Impression de preuves de concept et réalisation d'essais mécaniques et d'actionnement
- Caractérisation des structures composites

Calcul fiable en mémoire et mise en œuvre de réseaux neuronaux stochastiques à très faible consommation d'énergie inspirés de la biologie

La résolution automatisée des tâches cognitives repose principalement sur des algorithmes d'apprentissage appliqués aux réseaux neuronaux qui, lorsqu'ils sont exécutés sur des architectures numériques CMOS standard, entraînent une consommation d'énergie supérieure de plusieurs ordres de grandeur à celle dont le cerveau aurait besoin. En outre, les solutions conventionnelles de réseaux neuronaux Edge ne peuvent fournir que des prédictions de sortie et ne sont pas en mesure de transmettre avec précision l'incertitude des prédictions en raison de leurs paramètres déterministes et des activations des neurones, ce qui donne lieu à des prédictions trop sûres. Pouvoir modéliser et calculer l'incertitude d'une prédiction donnée permet à l'utilisateur de prendre de meilleures décisions (par exemple, dans les processus de classification ou de prise de décision) qui peuvent donc être expliquées, ce qui est crucial dans une variété d'applications, telles que les tâches critiques pour la sécurité (par exemple, les véhicules autonomes, le diagnostic et le traitement médicaux, la robotique industrielle et les systèmes financiers). Le réseau neuronal probabiliste est une solution possible pour traiter la prédiction de l'incertitude. En outre, la consommation d'énergie peut être considérablement réduite en utilisant des systèmes informatiques matériels dont les architectures s'inspirent de modèles biologiques ou physiques. Ils sont principalement basés sur des nanodispositifs imitant les propriétés des neurones telles que l'émission de pointes stochastiques ou synchrones. De nombreuses propositions théoriques ont montré que les dispositifs spintroniques nanométriques (MTJ) sont particulièrement bien adaptés. Ils peuvent être utilisés comme composants stochastiques ou déterministes.

Fonctionnalité multi-niveau dans les couches minces ferroélectriques à base de HfO2 pour des applications de logique et de mémoire à l’edge

La transition numérique vers une économie plus attractive et plus soutenable s’appuie sur la recherche sur les technologies digitales du futur.

Grâce à sa non-volatilité, sa compatibilité CMOS et à son potentiel de mise à l’échelle et d’intégration 3D, les technologies émergentes de mémoires et de logique basées ferroélectricité dans le HfO2 constituent une révolution d’un point de vue applicatif. Par exemple, par rapport aux technologies Flash, résistive ou changement de phase, les mémoires ferroélectriques sont intrinsèquement de basse consommation d’énergie.

Le dispositif au cœur du projet est le FeFET-2 qui consiste en un condensateur ferroélectrique en série avec la grille d’un transistor CMOS. Ces dispositifs combinent d’excellentes métriques d’endurance, consommation d’énergie, rétention et la plasticité d’une réponse quasi-analogue.

Le travail de thèse utilisera les techniques de caractérisation avancée, notamment la spectroscopie et la microscopie en photoémission pour établir les liens entre les propriétés des matériaux et les performances électriques de FeCAPs.

Des expériences operando en fonction du nombre de cycles et de tensions électriques appliquées et duration des pulses permettront d’explorer les corrélations entre la cinétique de l’évolution des propriétés matérielles et la réponse électrique des dispositifs.
Le travail de thèse se déroulera en étroite collaboration avec NaMLab (Dresde) et CEA-LETI (Grenoble).

Etude de l'inflation avec des quasars et de galaxies dans DESI

Les mesures des propriétés statistiques de la structure de l’univers à grande échelle (LSS) fournissent des informations sur la physique qui a généré les fluctuations primordiales de densité. En particulier, elles permettent de distinguer différents modèles d’inflation cosmique en mesurant la non-gaussianité primordiale (PNG), l’écart par rapport aux conditions initiales du champ aléatoire gaussien.

Notre stratégie pour étudier les LLS, consiste à utiliser un relevé spectroscopique, DESI, dont l’instrument a été mis en service à la fin de l'année 2019. DESI observera 40 millions de galaxies et de quasars. Les observations ont lieu au télescope Mayall de 4 m en Arizona. Depuis le printemps 2021, le projet a débuté une période d’observation sans interruption qui durera 5 ans, ce qui permettra de couvrir un quart de la voute céleste.

Pour ce projet de thèse, les LSS sont mesurées avec deux traceurs de la matière : les galaxies très lumineuses rouges (LRG) et les quasars, objets très lointains et très lumineux. Ces deux traceurs nous permettent de couvrir une large plage en redshift allant de 0.4 à 4.0.

Au cours de sa première année de thèse, l’étudiant participera à la fin de l’analyse de la première année d’observation. Il étudiera en particulier, la structuration à grandes échelles avec des quasars et des galaxies (LRG). Son travail consistera aussi à évaluer toutes les sources possibles de biais dans la sélection des quasars et des LRG qui pourraient contaminer un signal cosmologique. Dans un deuxième temps, l’étudiant développera une analyse plus sophistiquée qui mettra en œuvre les statistiques à trois points comme le bispectre et qui sera étendue à un échantillon plus important représentant les trois premières années d’observation de DESI.

Concepts innovants pour l’accélération de particules et l’émission de rayonnement dans l’interaction laser – plasma surdense à ultra-haute intensité

Le travail de thèse proposé vise à explorer théoriquement et numériquement la génération de faisceaux de particules rapides par l'interaction d'impulsions laser ultra-relativistes (supérieure à 10^21 W/cm2) sur des solides denses, en utilisant des cibles structurées ou façonnées. Les caractéristiques de surface induisent des modes électromagnétiques locaux plus intenses que le champ laser. Il sera ainsi étudié les effets non linéaires et relativistes, qui jouent un rôle majeur à ces emplacements particuliers.

Sur la base des travaux déjà réalisés, le nouveau schéma d'accélération des particules sera étendu au régime ultra-relativiste de l'interaction avec le plasma laser. Il pourrait conduire à des sources de lumière et d'électrons synchronisées ultra-courtes révolutionnaires, avec des applications dans l'étude des processus électroniques ultrarapides. Dans ce contexte, cette étude théorique et numérique permettra de suggérer de nouveaux schémas expérimentaux réalisables sur l'installation Apollon et les lasers multi-PW.

Électrolytes solides hybrides pour batteries "tout solide" : Formulation et caractérisation multi-échelle du transport ionique

Les batteries lithium-ion, largement présentes dans notre vie quotidienne, ont révolutionné les applications portables et sont maintenant utilisées dans les véhicules électriques. Le développement de nouvelles générations de batteries pour les futures applications dans le transport et le stockage d'électricité à partir de sources renouvelables est donc vital pour atténuer le réchauffement climatique.
La technologie lithium-ion est généralement considérée comme la solution privilégiée pour les applications nécessitant une haute densité d’énergie, alors que la technologie sodium-ion est particulièrement intéressante pour des applications qui requièrent de la puissance. Néanmoins, l’instabilité intrinsèque des électrolytes liquides entraîne des problèmes de sécurité.

Face aux exigences de respect de l’environnement et de sécurité, les batteries tout solide à base d’électrolytes solides peuvent apporter une solution efficace tout en répondant aux besoins accus de stockage d’énergie. Les verrous à lever pour permettre le développement de la technologie batterie "tout solide" résident essentiellement dans la recherche de nouveaux électrolytes solides chimiquement stables et ayant de bonnes performances électriques, électrochimiques et mécaniques. Dans cet objectif, ce projet de thèse vise à développer des électrolytes solides composites « polymère/polymère » et « polymère/céramique » ayant une performance élevée et une sécurité renforcée. Des caractérisations par spectroscopie d’impédance électrochimique (EIS) seront réalisées afin de comprendre la dynamique cationique (par Li+ ou Na+) à l’échelle macroscopique dans les électrolytes composites, tandis que la dynamique locale sera sondée à l'aide de techniques avancées de RMN à l'état solide (relaxation du 23Na/7Li, RMN 2D, RMN in-situ & operando). D’autres techniques de caractérisation comme la Diffraction des rayons X et des neutrons, l’XPS, la chronoampérométrie, le GITT…seront mises en œuvre pour une parfaite compréhension de la structure des électrolytes ainsi que des mécanismes de vieillissement aux interfaces électrolyte/électrolyte et électrolyte/électrode de la batterie tout solide.

Mots clés : électrolyte solide composite, batterie tout solide, interfaces, caractérisation multi-échelle, dynamique des ions Li+ et Na+, performance électrochimique, RMN du solide, diffraction RX/neutrons.

Implication des protéines paralogues de Rad51 dans la formation des filaments Rad51 lors de la réparation de l'ADN

La recombinaison homologue (RH) est un mécanisme majeur de réparation des cassures double-brin de l'ADN induites par les radiations ionisantes. Une étape clé de la RH est la formation de filaments nucléoprotéique Rad51 sur l'ADN simple brin généré par ces cassures. Nous avons montré qu'un contrôle strict de ces filaments est essentiel, afin que la RH n'induise pas elle-même des réarrangements chromosomiques (eLife 2018, Cells 2021). Chez l'homme, les homologues fonctionnels des protéines de contrôle sont des suppresseurs de tumeurs. Ainsi, le contrôle de la RH semble être aussi important que le mécanisme de la RH lui-même. Notre projet implique l'utilisation de nouveaux outils moléculaires permettant une véritable percée dans l'étude de ces contrôles. Nous utiliserons une version fonctionnelle fluorescente de la protéine Rad51 développée pour la première fois par nos collaborateurs A. Taddei (Institut Curie), R. Guérois et F. Ochsenbein (I2BC, Joliot, CEA). Cette avancée majeure nous permettra d'observer l'influence des protéines de contrôle sur la réparation de l'ADN par microscopie dans des cellules vivantes. Nous avons également développé des modèles structuraux très précis des mégacomplexes de protéines de contrôle en association avec les filaments Rad51. Cette étude a également conduit à l'identification de domaines spécifiques pour chaque protéine paralogue, en dehors du noyau structurellement conservé de type Rad51, qui pourraient définir la spécificité de chaque protéine paralogue. Nous utiliserons une approche multidisciplinaire basée sur la génétique, la biologie moléculaire, la biochimie, la structure des protéines et des méthodes de microscopie, et la levure comme organisme modèle pour étudier les conséquences de l'ablation de ces domaines spécifiques. Nous rechercherons également des protéines liant spécifiquement ces domaines. Leur identification sera cruciale pour comprendre la fonction des complexes paralogues de Rad51 et aideront à développer de nouvelles approches thérapeutiques.

Recherche de production de boson de Higgs associée à un quark top unique et études des propriétés CP du couplage top-Higgs dans le canal diphoton avec l'expérience CMS au LHC.

Il y a 10 ans, les collaborations ATLAS et CMS au LHC au CERN découvraient le boson de Higgs, avec 10 fb-1 de collisions proton-proton à une énergie dans le centre de masse de 7 à 8 TeV [1,2]. Depuis, les propriétés de cette particule ont été testées par les deux expériences et sont compatibles, dans les incertitudes, avec les propriétés prédites par le Modèle Standard de la physique des particules. Le Modèle Standard (MS) présente néanmoins un certain nombre de limitations, comme l’absence d’explication pour la matière noire par exemple, nous poussant à le considérer comme un modèle effectif à basse énergie, et à chercher à mettre en évidence ses limites. En l’absence de preuve directe de « Nouvelle Physique », accroître la précision des mesures des propriétés du boson de Higgs (son spin, sa parité, et ses couplages aux autres particules) reste un des chemins les plus prometteur.
La mesure de la production associée à une paire de quark top-antitop (ttH) donne un accès direct au couplage de Yukawa du quark top, paramètre fondamental du MS. La production ttH est un processus rare, deux ordres de grandeur plus rare que la production dominante au LHC par fusion de gluons. Ce mode de production a été observé pour la première fois en 2018 [3, 4], séparément par les expériences ATLAS et CMS, et en combinant statistiquement les résultats de recherches dans plusieurs canaux de désintégration. Plus récemment, avec le dataset complet du Run 2 (données prises entre 2016 et 2018 avec un total de 138 fb-1 à 13 TeV), ce mode de production a été observé aussi en utilisant seulement le canal de désintégration en deux photons, et une première mesure de ces propriétés CP a été publiée par les deux expériences avec une exclusion de l’hypothèse couplage CP-impair pur à 3s [5, 6]. La production associé à un quark top unique est de l’ordre de 5 fois plus faible et n’a encore jamais été observée expérimentalement. Grâce aux recherches dans les canaux en deux photons et en leptons multiples, des contraintes très lâches ont été cependant esquissées pour la première fois récemment (see Ref. [7]). Ce mode de production est très sensible aux propriétés CP du couplage H-tt, puisqu’en cas de couplage impair, sa production est augmentée de manière importante. Nous proposons dans cette thèse d’étudier conjointement les deux modes de production (ttH et tH), ainsi que les propriétés CP du couplage H-tt avec les données du Run 3 (données enregistrées en ce moment et jusqu’à 2026, avec potentiellement 250 fb-1 à 13.6 TeV à la fin du Run) dans le canal diphoton. Bien que de premières mesures de la violation de CP dans le secteur du Higgs existent, exclure de petites contributions CP-impaires demandera plus de données et la poursuite de ces études avec le Run 3 pourrait mettre en évidence des déviations du SM. Nous nous proposons dans cette analyse de données d’apporter de nombreuses améliorations à la stratégie générale de l’analyse et d’utiliser de nouvelles méthodes d’apprentissage profond pour la reconstruction des photons et la modélisation des bruits de fond , méthodes développées avec les thèses en cours actuellement dans le groupe mais pas encore utilisées dans les résultats de physique de CMS. Ces améliorations permettront de tirer le meilleur parti de l’échantillon de données dont nous disposerons.
[1] ATLAS Collaboration, “Observation of a new particle in the search for the Standard Model Higgs boson with the ATLAS detector at the LHC,” Phys. Lett. B 716 (2012) 1.
[2] CMS Collaboration, “Observation of a new boson at a mass of 125 GeV with the CMS experiment at the LHC,” Phys. Lett. B 716 (2012) 30.
[3] ATLAS Collaboration, “Observation of Higgs boson production in association with a top quark pair at the LHC with the ATLAS detector”, Phys. Lett. B 784 (2018) 173.
[4] CMS Collaboration, “Observation of ttH Production”, Phys. Rev. Lett. 120 (2018) 231801.
[5] CMS Collaboration, “Measurements of ttH Production and the CP Structure of the Yukawa Inter- action between the Higgs Boson and Top Quark in the Diphoton Decay Channel”, Phys. Rev. Lett. 125, 061801.
[6] ATLAS Collaboration, “CP Properties of Higgs Boson Interactions with Top Quarks in the ttH and tH Processes Using H ? ?? with the ATLAS Detector” , Phys. Rev. Lett. 125 (2020) 061802.
[7] CMS Collaboration, “A portrait of the Higgs boson by the CMS experiment ten years after the discovery”, Nature 607 (2022) 60.

Détecter les premiers amas de galaxies de l'Univers dans les cartes du fond diffus cosmologique

Les amas de galaxies, situés aux nœuds de la toile cosmique, sont les plus grandes structures de l’Univers liées par la gravitation. Leur nombre et leur distribution spatiale sont très sensibles aux paramètres cosmologiques, comme la densité de matière dans l’Univers. Les amas constituent ainsi une sonde cosmologique performante. Elle a fait ses preuves ces dernières années (sondages Planck, South Pole Telescope, XXL, etc.) et promet de grandes avancées les prochaines années (sondages Euclid, Observatoire Vera Rubin, Simons Observatory, CMB-S4, etc.).
Le pouvoir cosmologique des amas de galaxies s’accroît avec la taille de l’intervalle de décalage vers le rouge (redshift) couvert par le catalogue. Le figure jointe montre les domaines de redshift couverts par les catalogues d’amas extraits des expériences d’observation du fond diffus cosmologique (première lumière émise dans l’Univers 380000 ans après le Big Bang). Ainsi, Planck a détecté les amas les plus massifs de l’Univers dans 0<z<1 alors que SPT et ACT, plus sensibles mais couvrant moins de ciel, ont déjà détecté des dizaines d’amas entre z=1 et z=1.5 et quelques amas entre z=1.5 et z=2. La prochaine génération d’instruments (Simons Observatory à partir de 2024 et CMB-S4 à partir de 2032) permettra de détecter de façon routinière les amas dans 1<z<2 et observera les premiers amas formés dans l’Univers dans 2<z<3.
Seules les expériences étudiant le fond diffus cosmologique pourront observer le gaz chaud dans ces premiers amas à 2<z<3, grâce à l’effet SZ, du nom de ses deux découvreurs Sunyaev et Zel’dovich. Cet effet, dû aux électrons de grande énergie du gaz des amas, provoque une petite perturbation du spectre en fréquence du fond diffus cosmologique, ce qui le rend détectable. Mais le gaz n’est pas la seule composante émettrice dans les amas : des galaxies à l’intérieur des amas émettent aussi en radio ou en infrarouge ce qui contamine le signal SZ. Cette contamination est faible à z<1 mais augmente drastiquement avec le redshift. On s’attend à ce que ces émissions radio et infrarouge soient du même ordre de grandeur que le signal SZ dans l’intervalle 2<z<3.
Il faut donc essayer de comprendre et modéliser l’émission du gaz des amas en fonction du redshift, mais aussi celle des galaxies radio et infrarouge qu’ils contiennent pour pouvoir préparer la détection des premiers amas de galaxies de l’Univers.
L’Irfu/DPhP a développé les premiers outils de détection d’amas de galaxies dans les données du fond diffus cosmologique dans les années 2000. Ces outils ont été utilisés avec succès sur les données Planck et sur les données sol, comme celles de l’expérience SPT. Ils sont efficaces pour détecter les amas de galaxies dont l’émission est dominée par le gaz mais leur performance est inconnue dans le cas où l‘émission par les galaxies radios et infrarouges est importante.
Le travail de thèse consistera dans un premier temps à étudier et modéliser les émissions radio et infrarouge des galaxies des amas détectés dans les données du fond diffus cosmologique (Planck, SPT et ACT) en fonction du redshift.
Dans un second temps, on quantifiera l’impact de de ces émissions sur les outils de détection d’amas existants, dans le domaine de redshift actuellement sondé (0<z<2) puis dans le domaine de redshift futur (2<z<3).
Enfin, à partir de notre connaissance acquise sur ces émissions radio et infrarouge des galaxies dans les amas, on développera un nouvel outil d’extraction d’amas destiné aux amas à grand redshift (2<z<3) pour maximiser l’efficacité de détection et la maîtrise des effets de sélection, i.e. le nombre d’amas détecté par rapport à au nombre total sous-jacent.

Tester le modèle standard dans le secteur du quark top et du boson de Higgs dans l’état final à plusieurs leptons dans l’expérience ATLAS au LHC

Cette thèse propose de mesurer de manière cohérente les différents processus rares de production de quarks top en association avec des bosons, dans l’état final avec deux leptons de même signe ou trois leptons chargés au grand collisionneur de hadrons. La thèse sera basée sur l’analyse du lot de données collecté et en cours d’acquisition par l’expérience ATLAS à une énergie record. L’analyse conjointe des processus ttW, ttZ, ttH et 4top où un signal est bruit de fond de l’autre permettra d’avoir des mesures complètes et non biaisées de l’état final avec plusieurs leptons.
Ces processus rares, accessibles récemment au LHC, peuvent sonder les modèles de nouvelle physique pour lesquels le quark top est un outil prometteur, en particulier en utilisant des théories des champs effectives. Découvrir des signes de nouvelle physique qui dépasse les limitations du modèle standard est une question fondamentale de la physique des particules à l’heure actuelle.

Top