Révéler la structure d’un substrat dans le site actif d’une protéine kinase activée par les mitogènes

Les protéines kinases activées par les mitogènes (MAPK) sont des enzymes de signalisation clés qui régulent les réponses cellulaires au stress en phosphorylant des substrats protéiques spécifiques. Leur dérégulation contribue à de nombreuses maladies telles que les cancers et les troubles neurodégénératifs. Bien que les mécanismes d’activation et de catalyse des MAPK soient bien caractérisés, les bases structurales de leur spécificité de substrats demeurent inconnues. Ce projet vise à pallier ce manque de connaissances en déterminant des structures à résolution atomique de substrats liés au site actif de la kinase JNK1. Pour atteindre cet objectif, nous utiliserons la cristallographie aux rayons X combinée à des méthodes innovantes de résonance magnétique nucléaire (RMN), intégrant un marquage isotopique sélectif des groupements méthyles et une catalyse photoactivable. En élucidant les détails structuraux de la reconnaissance des substrats par le site actif de JNK1, ce travail ouvrira des perspectives pour le développement de nouveaux inhibiteurs compétitifs des MAPK, dotés d’une sélectivité et d’un potentiel thérapeutique accrus.

Adaptation et Dégradation des PFAS par la bactérie Pseudomonas putida

Les substances per- et polyfluoroalkyles (PFAS) sont une classe de produits chimiques très variés que l'on trouve dans les produits d'usage quotidien qui sont très persistants. Elles s'accumulent dans la chaîne alimentaire naturelle et présentent une toxicité relativement élevée, y compris avec les « nouveaux » PFAS mis au point après l'interdiction des PAFS tels que le PFOA. Le monde est donc confronté à une situation très préoccupante, d'autant plus que le retraitement des sols, des sédiments ou de l'eau contaminés est difficile et coûteux. L'un des principaux défis réside dans le fait que les différents PFAS ont des propriétés physicochimiques très différentes, mais qu'ils sont souvent présents en mélange, ce qui rend difficile la mise au point d'une technologie efficace pour les éliminer tous. Nous proposons d'ouvrir la voie à une autre approche pour leur élimination, la bioremédiation, connue pour être une alternative efficace aux méthodes chimiques ou physiques d'élimination des substances toxiques (autosuffisance, moins cher, travail dans des conditions plus douces). Quelques bactéries ont été décrites comme étant capables de modifier/dégrader partiellement certains PFAS. Cependant, à l'exception de la transformation des PFAS, aucune donnée n'est disponible concernant leur adaptation à l'exposition aux PFAS. Quelques projets se concentrent sur la recherche d'enzymes impliquées dans la dégradation en tant que telle, mais si nous voulons utiliser des cultures bactériennes et non des enzymes, de nombreux autres paramètres doivent être pris en compte pour mettre en place une souche performante et, par conséquent, un processus performant. Par conséquent, nous proposons d'analyser en détail la réponse à plusieurs PFAS, de la souche dégradant les PFAS ATCC 17514 en termes de dégradation, d'adaptation à une toxicité potentielle et d'ajustement du métabolisme. Les analyses s'appuieront principalement sur une approche protéomique qui est une technique très puissante pour analyser les réponses globales sans a priori, et qui n'a jamais été utilisée pour caractériser la toxicité des PFASs ou le métabolisme des composés fluorés chez les bactéries. Le but ultime de ce projet sera de créer ou de sélectionner une souche robuste et efficace capable de biodégrader les PFASs.

Nanoplaquettes de semi-conducteurs III-V

Les nanoplaquettes semi-conducteurs (NPLs) sont une classe de nanostructures bidimensionnelles qui possèdent des propriétés électroniques et optiques distinctes de celles des quantum dots sphériques (QDs). Ils présentent un confinement quantique fort dans une seule dimension, l'épaisseur, qui peut être contrôlée à la monocouche près par des méthodes de synthèse chimique en solution. De ce fait les NPLs émettent une lumière avec une largeur spectrale extrêmement étroite. En même temps, ils présentent un coefficient d’absorption très élevé. Ces propriétés en font des candidats idéals pour différentes applications (diodes électroluminescentes pour des écrans à consommation électrique réduite, photocatalyse, émetteurs à photons uniques, lasers,…).
Pour l’instant seule la synthèse de NPLs de chalcogénures de métaux est maîtrisée. Ces matériaux présentent soit des éléments toxiques (CdSe, HgTe, etc.) soit une grande largeur de bande interdite (ZnS, ZnSe). Pour ces raisons le développement des méthodes de synthèse pour des NPLs de semi-conducteurs III-V, tel que l’InP, InAs et InSb présente un grand enjeu. Dans cette thèse nous développerons des nouvelles approches synthétiques pour la croissance des NPLs d’InP, explorant différentes voies et utilisant des caractérisations in situ ainsi que la méthode de plans d’expérience assistée par machine learning. Des simulations numériques seront utilisées pour déterminer la réactivité des précurseurs et pour modéliser les mécanismes induisant la croissance anisotrope.

Impact de la magnétohydrodynamique sur l’accès et la dynamique des régimes d’opération avec point X rayonnant (XPR)

L'opération d'ITER et de futures centrales à fusion devra en particulier garantir la pérennité des composants face au plasma (CFP) équipant le divertor, cet élément périphérique dédié à l'extraction de la chaleur et des particules. Dans ce cadre, deux facteurs clés sont à prendre en compte : les flux de chaleur devront rester en dessous des limites technologiques à la fois en stationnaire et lors d'évènements transitoires violents. Un régime d'opération récemment développé satisfait ces deux contraintes : le point X rayonnant (XPR). Les expériences sur plusieurs tokamaks, notamment sur WEST qui détient le record de durée plasma dans ce régime (> 40 secondes), ont montré qu'il conduisait à une réduction drastique des flux de chaleur sur les CFP en transférant l'essentiel de l'énergie du plasma aux photons et aux particules neutres, et par ailleurs mitigeait – voire supprimait – des instabilités magnétohydrodynamiques (MHD) de bord particulièrement délétères, les ELMs (edge localised modes). Les mécanismes gouvernant ces mitigation et suppression restent très mal compris. En outre, le XPR peut s'avérer lui-même instable et conduire à une disruption, la perte brutale du confinement du plasma suite au déclenchement d'instabilités MHD globales.
L'objectif de cette thèse est double : (i) comprendre la physique à l'œuvre dans l'interaction XPR-ELMs, et (ii) optimiser l'accès et la stabilité du régime XPR. Pour ce faire, l'étudiant.e utilisera le code à 3-dimensions de MHD non-linéaire JOREK, la référence Européenne dans le domaine. Il s'agira notamment de préciser les limites du domaine opérationnel stable du XPR avec des ELMs faibles ou absents, et d'identifier les actuateurs principaux (quantité et espèces d’impuretés injectées, géométrie du plasma). Une participation aux campagnes expérimentales du tokamak WEST opéré au CEA de Cadarache – et de MAST-U opéré par l'UKAEA – est également envisagée pour confronter les résultats et prédictions des simulations aux mesures expérimentales.

Modélisation de la réponse instrumentale des télescopes spatiaux avec un modèle optique différentiable

Contexte

L'effet de lentille gravitationnelle faible [1] est une sonde puissante de la structure à grande échelle de notre univers. Les cosmologistes utilisent l'effet de lentille faible pour étudier la nature de la matière noire et sa distribution spatiale. Les missions d'observation de l'effet de lentille faible nécessitent des mesures très précises de la forme des images de galaxies. La réponse instrumentale du télescope, appelée fonction d'étalement du point (PSF), produit une déformation des images observées. Cette déformation peut être confondue avec les effets d'un faible effet de lentille sur les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique lors de la recherche sur les faibles effets de lentille. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de faible lentille [2]. Le champ de la PSF peut être interprété comme un noyau convolutionnel qui affecte chacune de nos observations d'intérêt, qui varie spatialement, spectralement et temporellement. Le modèle de la PSF doit être capable de gérer chacune de ces variations. Nous utilisons des étoiles spécifiques considérées comme des sources ponctuelles dans le champ de vision pour contraindre notre modèle PSF. Ces étoiles, qui sont des objets non résolus, nous fournissent des échantillons dégradés du champ de la PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope. Ces dégradations comprennent le sous-échantillonnage, l'intégration sur la bande passante de l'instrument et le bruit additif. Nous construisons finalement le modèle de la PSF en utilisant ces observations dégradées et utilisons ensuite le modèle pour déduire la PSF à la position des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Voir [3] pour un article récent sur la modélisation de la PSF.

La mission Euclid récemment lancée représente l'un des défis les plus complexes pour la modélisation de la PSF. En raison de la très large bande passante de l'imageur visible (VIS) d'Euclid, allant de 550 nm à 900 nm, les modèles de PSF doivent capturer non seulement les variations spatiales du champ de PSF, mais aussi ses variations chromatiques. Chaque observation d'étoile est intégrée avec la distribution d'énergie spectrale (SED) de l'objet sur l'ensemble de la bande passante du VIS. Comme les observations sont sous-échantillonnées, une étape de super-résolution est également nécessaire. Un modèle récent appelé WaveDiff [4] a été proposé pour résoudre le problème de modélisation de la PSF pour Euclid et est basé sur un modèle optique différentiable. WaveDiff a atteint des performances de pointe et est en train d'être testé avec des observations récentes de la mission Euclid.

Le télescope spatial James Webb (JWST) a été lancé récemment et produit des observations exceptionnelles. La collaboration COSMOS-Web [5] est un programme à grand champ du JWST qui cartographie un champ contigu de 0,6 deg2. Les observations de COSMOS-Web sont disponibles et offrent une occasion unique de tester et de développer un modèle précis de PSF pour le JWST. Dans ce contexte, plusieurs cas scientifiques, en plus des études de lentille gravitationnelle faible, peuvent grandement bénéficier d'un modèle PSF précis. Par exemple, l'effet de lentille gravitationnel fort [6], où la PSF joue un rôle crucial dans la reconstruction, et l'imagerie des exoplanètes [7], où les speckles de la PSF peuvent imiter l'apparence des exoplanètes, donc la soustraction d'un modèle de PSF exact et précis est essentielle pour améliorer l'imagerie et la détection des exoplanètes.

Projet de doctorat

Le candidat visera à développer des modèles PSF plus précis et plus performants pour les télescopes spatiaux en exploitant un cadre optique différentiable et concentrera ses efforts sur Euclid et le JWST.

Le modèle WaveDiff est basé sur l'espace du front d'onde et ne prend pas en compte les effets au niveau du pixel ou du détecteur. Ces erreurs au niveau des pixels ne peuvent pas être modélisées avec précision dans le front d'onde car elles se produisent naturellement directement sur les détecteurs et ne sont pas liées aux aberrations optiques du télescope. Par conséquent, dans un premier temps, nous étendrons l'approche de modélisation de la PSF en tenant compte de l'effet au niveau du détecteur en combinant une approche paramétrique et une approche basée sur les données (apprises). Nous exploiterons les capacités de différenciation automatique des cadres d'apprentissage automatique (par exemple TensorFlow, Pytorch, JAX) du modèle WaveDiff PSF pour atteindre l'objectif.

Dans une deuxième direction, nous envisagerons l'estimation conjointe du champ de la PSF et des densités d'énergie spectrale (SED) stellaires en exploitant des expositions répétées ou des dithers. L'objectif est d'améliorer et de calibrer l'estimation originale de la SED en exploitant les informations de modélisation de la PSF. Nous nous appuierons sur notre modèle PSF, et les observations répétées du même objet changeront l'image de l'étoile (puisqu'elle est imagée sur différentes positions du plan focal) mais partageront les mêmes SED.

Une autre direction sera d'étendre WaveDiff à des observatoires astronomiques plus généraux comme le JWST avec des champs de vision plus petits. Nous devrons contraindre le modèle de PSF avec des observations de plusieurs bandes pour construire un modèle de PSF unique contraint par plus d'informations. L'objectif est de développer le prochain modèle de PSF pour le JWST qui soit disponible pour une utilisation généralisée, que nous validerons avec les données réelles disponibles du programme COSMOS-Web JWST.

La direction suivante sera d'étendre les performances de WaveDiff en incluant un champ continu sous la forme d'une représentation neuronale implicite [8], ou de champs neuronaux (NeRF) [9], pour traiter les variations spatiales de la PSF dans l'espace du front d'onde avec un modèle plus puissant et plus flexible.

Enfin, tout au long de son doctorat, le candidat collaborera à l'effort de modélisation de la PSF par les données d'Euclid, qui consiste à appliquer WaveDiff aux données réelles d'Euclid, et à la collaboration COSMOS-Web pour exploiter les observations du JWST.

Références

[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. I. Liaudat et al. “Multi-CCD modelling of the point spread function”. In: A&A 646 (2021), A27. doi:10.1051/0004-6361/202039584.
[3] T. I. Liaudat, J.-L. Starck, and M. Kilbinger. “Point spread function modelling for astronomical telescopes: a review focused on weak gravitational lensing studies”. In: Frontiers in Astronomy and Space Sciences 10 (2023). doi: 10.3389/fspas.2023.1158213.
[4] T. I. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Rethinking data-driven point spread function modeling with a differentiable optical model”. In: Inverse Problems 39.3 (Feb. 2023), p. 035008. doi:10.1088/1361-6420/acb664.
[5] C. M. Casey et al. “COSMOS-Web: An Overview of the JWST Cosmic Origins Survey”. In: The Astrophysical Journal 954.1 (Aug. 2023), p. 31. doi: 10.3847/1538-4357/acc2bc.
[6] A. Acebron et al. “The Next Step in Galaxy Cluster Strong Lensing: Modeling the Surface Brightness of Multiply Imaged Sources”. In: ApJ 976.1, 110 (Nov. 2024), p. 110. doi: 10.3847/1538-4357/ad8343. arXiv: 2410.01883 [astro-ph.GA].
[7] B. Y. Feng et al. “Exoplanet Imaging via Differentiable Rendering”. In: IEEE Transactions on Computational Imaging 11 (2025), pp. 36–51. doi: 10.1109/TCI.2025.3525971.
[8] Y. Xie et al. “Neural Fields in Visual Computing and Beyond”. In: arXiv e-prints, arXiv:2111.11426 (Nov.2021), arXiv:2111.11426. doi: 10.48550/arXiv.2111.11426. arXiv: 2111.11426 [cs.CV].
[9] B. Mildenhall et al. “NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis”. In: arXiv e-prints, arXiv:2003.08934 (Mar. 2020), arXiv:2003.08934. doi: 10.48550/arXiv.2003.08934. arXiv:2003.08934 [cs.CV].

Étude du transport des impuretés dans des plasmas à triangularité négative et positive

La fusion nucléaire dans un tokamak est une source d'énergie prometteuse. Cependant, une question se pose : quelle configuration plasma est la plus susceptible de produire de l'énergie nette ? Pour contribuer à y répondre, au cours de cette thèse, nous étudierons l’impact de la géométrie magnétique (comparaison entre triangularité positive et négative) sur le transport collisionnel et turbulent du tungstène (W). Les performances d’un tokamak dépendent fortement du confinement de l’énergie qu’il peut réaliser. Le confinement se dégrade fortement en fonction du transport turbulent et du rayonnement, ce dernier étant principalement émis par le W. Sur ITER, la quantité tolérée de W au cœur du plasma est d’à peine 0,3 microgrammes environ. Des expériences ont montré que la géométrie plasma à triangularité négative (NT) est bénéfique pour le confinement car elle réduit significativement le transport turbulent. Cette géométrie permet d'atteindre un confinement équivalent à celui obtenu avec la configuration ITER (mode-H en triangularité positive), sans les limitations d’une puissance seuil minimale et sans les relaxations du bord du plasma qui lui sont caractéristiques. Cependant, des questions subsistent : quel niveau de transport du W est rencontré en NT comparé à la géométrie positive ? Quel niveau de rayonnement peut-on espérer dans des futurs réacteurs en NT ? Pour contribuer à répondre à ces questions, au cours de cette thèse, nous évaluerons le rôle de la triangularité sur le transport des impuretés dans différents scénarios dans WEST. La première phase du travail est expérimentale. Ensuite, la modélisation du transport d’impuretés sera réalisée en utilisant des modèles collisionnels et turbulents. Une collaboration est prévue avec des experts internationaux en plasma dans des configurations NT, avec UCSD (États-Unis) et EPFL (Suisse).

Contrôle de la turbulence des modes d’électrons piégés à l’aide du chauffage à la résonance cyclotronique électronique

Les performances en terme de gain énergétique d’une centrale à fusion de type tokamak seront limitées par le transport turbulent. L’instabilité des modes d’électrons piégés est l’une des principales instabilités à l’origine de la turbulence dans les tokamaks. Par ailleurs, le chauffage à la résonance cyclotronique électronique ECRH est le système de chauffage générique dans les tokamaks actuels et à venir. Les deux processus physiques reposent sur des interactions résonantes avec les électrons, en espace et en vitesse. Comme le chauffage a pour effet de dépeupler de ses électrons la zone d’interaction résonante, superposer sa résonance à celle de l'instabilité peut théoriquement entrainer une stabilisation des modes d’électrons piégés.
L’objectif de la thèse est double : (i) construire des scenarios où ce mécanisme existe et le valider au moyen de simulations linéaires, puis (ii) caractériser son effet et quantifier son efficacité en régime non-linéaire où les effets linéaires seront en compétition avec l'auto-organisation de la turbulence, les processus collisionnels et la dynamique des profils moyens. Potentiellement, cette technique de contrôle entièrement nouvelle pourrait permettre d’améliorer les performances des tokamaks sans surcoût. La thèse demandera une compréhension théorique fine des deux processus résonnants étudiés et de leurs différents paramètres de contrôle. Elle reposera sur l’utilisation du code gyrocinétique GYSELA dédié à l'étude du transport et de la turbulence dans les plasmas de tokamaks, et récemment enrichi d'un module de chauffage ECRH. Un volet expérimental est également envisagé sur les tokamaks WEST et/ou TCV pour valider le(s) scénario(s) de contrôle de la turbulence le(s) plus prometteur(s).

Contrôle du plasma en temps réel par calorimétrie

Dans les machines de fusion thermonucléaire, les composants face au plasma sont soumis à d’intenses flux de chaleur. Le tokamak WEST a des composants activement refroidis à l’eau afin de limiter leur échauffement. Des mesures calorimétriques sur les composants permettent de mesurer la puissance reçue par chaque composant. Il est ainsi possible d’effectuer un contrôle du plasma en position ou en puissance additionnelle en fonction de ces puissances reçues.
Dans cette thèse, une simulation du contrôle du plasma par calorimétrie sera effectuée, en simulant les flux de chaleur reçus par les composants en fonction de la position du plasma et de la réponse calorimétrique associée. Des mesures de calorimétrie in-situ seront effectuées sur les composants en haut et bas de la machine lors d’expériences plasmas dédiées pour affiner les simulations et le contrôle de la position du plasma de WEST à partir des mesures calorimétriques sera finalement mis en place et validé lors d’expériences dédiées, que ce soit dans un but de protection des composants face au plasma, mais aussi pour des aspects de physique du plasma.

Contrôle temps-réel des instabilités MHD lors des chocs longs de WEST

Dans les plasmas de fusion magnétique, les instabilités macroscopiques magnétohydrodynamiques (MHD) à basse fréquence (~1-10 kHz) peuvent dégrader les performances et la stabilité du plasma. Lors des décharges longues sur le tokamak WEST, de tels modes apparaissent fréquemment provoquant une chute de la température centrale, une augmentation de la résistivité, réduisant ainsi les performances et conduisant à une fin prématurée des décharges. Leur détection en temps réel puis l’application de méthodes de stabilisation sont donc essentielles pour l’optimisation des performances de WEST mais aussi en vue des futures machines comme ITER.
Des instruments comme la radiométrie ECE (émission cyclotronique électronique) ou la réflectométrie peuvent mesurer les perturbations de température ou de densité générées par ces instabilités MHD avec une bonne résolution spatiale et temporelle. Toutefois, l’analyse des mesures est actuellement réalisée a posteriori après la décharge. Or, une détection en temps réel est indispensable pour déployer une stratégie de contrôle comme une modification du critère de stabilité MHD. Ce critère MHD est très sensible à une génération locale de courant ou un dépôt de chaleur, processus pour lesquels le système de chauffage ECRH/ECCD (Electron Cyclotron Resonance Heating/Current Drive) est bien adapté.
L’objectif de cette thèse est de développer puis déployer une stratégie de contrôle des instabilités MHD basses fréquence sur le tokamak WEST. L’étudiant commencera par développer la détection en temps-réel de ces instabilités grâce au radiomètre ECE, puis inclura d’autres mesures (imagerie ECE, réflectométrie) pour améliorer la fiabilité et la précision. Différentes stratégies de stabilisation seront étudiées via des outils de modélisation intégrée. L’ECRH/ECCD est l’actionneur de référence, mais d’autres leviers comme une modification temporaire de paramètres plasma (courant, température, densité) seront aussi évalués. Enfin, la stratégie de contrôle sera intégrée au système de contrôle de WEST en commençant par des algorithmes simples avant de tester des approches avancées (réseaux de neurones, apprentissage profond).

Développement d’anticorps monoclonaux pour le diagnostic et le traitement des infections à Klebsiella pneumoniae hypervirulentes

Nous observons depuis quelques années l’émergence de souches de Klebsiella pneumoniae hyper-virulentes (hvKp) devenues très résistantes aux antibioques. Dans un contexte de raréfaction des options antibiotiques, les anticorps (Ac) monoclonaux dirigés contre des antigènes capsulaires bien conservés de ses souches d’HvKp apparaissent comme une alternative thérapeutique prometteuse.
Ce projet de thèse s’articule autour de trois objectifs complémentaires :
1. Décrire la circulation des clones de hvKp par analyse génomique comparative des souches collectées via le Centre National de Référence de la Résistance aux Antibiotiques et via une collaboration internationale.
2. Produire et caractériser des Ac monoclonaux dirigés contre la capsule de HvKp.
3. Développer un outil de détection rapide basé sur l’analyse des profils MALDI-TOF couplée à des algorithmes de machine learning.

Top