Suivi par imagerie in vivo multiplexée de la dissémination du pathogène et de la dynamique des réponses immunitaires dans un modèle de tuberculose
Cette thèse a pour objectif de mettre en place un suivi multiparamétrique par imagerie médicale à la fois de la colonisation d’un pathogène donné suite à une infection mais également de la dynamique des réponses immunitaires associées à cette infection, le tout à l’échelle de l’organisme entier. Cela pourrait fournir un outil innovant et non invasif permettant de mieux comprendre les liens entre la dynamique dans le temps et dans l’espace des réponses immunitaires et la bio-distribution du pathogène dans l’organisme, et potentiellement fournir de nouveaux biomarqueurs associés à différentes maladies.
Pour ce faire, cette thèse s’appuierait sur la pathologie de la tuberculose qui représente un enjeu majeur de santé publique à ce jour dans le monde. L'objectif principal est de déterminer la relation entre la dissémination de Mycobacterium tuberculosis et les réponses immunitaires associées à travers tout le corps au cours de l'infection tuberculeuse, de l'infection précoce à la tuberculose latente ou active, grâce à des protocoles d'imagerie multiplexée innovants. Le but de cette étude est de fournir des corrélations dans le temps et dans l'espace entre la charge bactérienne locale et plusieurs infiltrations de cellules immunitaires (macrophages activés et sous-ensembles de lymphocytes T) survenant après l'infection et détectées au fil du temps par imagerie. Ces résultats pourraient alors fournir, avec une invasivité minimale, des biomarqueurs prédictifs de la progression de la maladie et pourraient également offrir des informations précieuses sur les cibles immunitaires potentielles pour de futures stratégies préventives ou curatives basées sur la modulation du système immunitaire. Pour ce faire, cette thèse tirerait parti du modèle préclinique de tuberculose chez le primate non humain développé en France et de notre expertise en imagerie in vivo des pathogènes et des cellules immunitaires dans ce modèle. Il est à noter que la caractérisation plus approfondie des cellules immunitaires dans les échantillons d'intérêt (guidés par imagerie) sera évalué par des technologies de transcriptomique spatiale ou unicellulaire sur des échantillons de tissus, afin de fournir des informations supplémentaires sur la physiopathologie de la tuberculose et l'efficacité des traitements potentiels.
Développement d’une plateforme microfluidique bioanalytique pour quantifier la bio distribution cellulaire d’un médicament
Le mode d'action d’un médicament, ainsi que son efficacité, sont corrélés non seulement à sa capacité à s’accumuler au niveau des tissus pathologiques ciblés, à savoir sa bio distribution tissulaire, mais également à atteindre spécifiquement sa cible moléculaire au sein des cellules. Une accumulation non spécifique d’un médicament dans ces cellules peut être à l’origine d’effets non-désirés, par exemple des effets secondaires lors de chimiothérapies. En d’autres termes, évaluer l’efficacité, la spécificité et l’absence de toxicité d’un médicament nécessite de déterminer précisément et de façon quantitative sa bio distribution cellulaire. Devenus incontournable en oncologie, les conjugués anticorps-médicaments (ADC) permettent une thérapie vectorisée afin de cibler préférentiellement au sein d’une tumeur un sous-ensemble de cellules tumorales exprimant l’antigène reconnu par l’anticorps.
Ces ADC ciblent des cellules tumorales spécifiques exprimant un antigène particulier, limitant ainsi la toxicité pour les tissus sains. Le marquage radioactif des médicaments (3H, 14C) est une méthode clé pour quantifier leur accumulation dans les cellules tumorales et non tumorales, afin d’évaluer la précision du ciblage et éviter les effets secondaires indésirables. Cependant, la détection des faibles émissions de tritium nécessite de nouvelles solutions technologiques. Le projet propose le développement d'une plateforme microfluidique innovante permettant de détecter et quantifier ces isotopes dans des cellules uniques. Cette approche permettra de mieux documenter la distribution des ADC dans des tissus hétérogènes et d’affiner les stratégies thérapeutiques.
Assemblage de la Nitrogénase: Qu'est ce qui distingue une nitrogénase d'une protéine échafaudage
Face aux crises du changement climatique et de la dégradation des sols, il est urgent de trouver des solutions pour réduire les émissions de gaz à effet de serre et la dépendance aux engrais azotés, tout en garantissant des rendements agricoles suffisants pour nourrir une population mondiale croissante. Une solution naturelle réside dans l'utilisation de la nitrogénase, une enzyme bactérienne capable de fixer l’azote atmosphérique en ammoniac, une forme directement assimilable par les plantes. Cependant, la biosynthèse de son cofacteur métallique, le FeMo-co, est un processus complexe nécessitant l’action coordonnée de nombreuses protéines.
L'objectif de cette thèse est de simplifier ce processus en étudiant des systèmes de maturation de la nitrogénase trouvés dans certains organismes, où un nombre réduit de protéines est utilisé, notamment grâce à la combinaison de plusieurs fonctions en une seule. Par une étude structurale et fonctionnelle comparative, nous chercherons à comprendre le rôle précis de chaque élément et comment simplifier ce système tout en conservant une activité optimale. Une telle avancée permettrait d’intégrer la capacité de fixation de l’azote dans les céréales, réduisant ainsi la dépendance aux engrais azotés.
Ce projet est issu d’une collaboration entre des équipes du CEA à l’Institut de Biologie Structurale et du CSIC à Madrid, reconnues pour leur expertise dans l'étude structurale des métalloprotéines ainsi que la biochimie et la génétique de la machinerie d’assemblage de la nitrogénase. Le doctorant bénéficiera d’un environnement scientifique de pointe, propice à une formation complète et enrichissante, pour une carrière future en recherche académique ou en R&D.
Geometrie de la toile cosmique: du modele théorique aux observations
L'étude des filaments de la toile cosmique est un aspect primordial de la recherche moderne en cosmologie. Avec l'avènement des grands relevés cosmologiques extrêmement vastes et précis, notamment la mission spatiale Euclid, il devient possible d'étudier en détail la formation des structures cosmiques via l'instabilité gravitationnelle. En particulier, les aspects non linéaires de cette dynamique peuvent être étudiés d'un point de vue théorique avec l'espoir de détecter des signatures dans les observations. L'une des principales difficultés à cet égard est probablement de faire le lien entre la distribution observée des galaxies le long des filaments et la distribution de matière sous-jacente pour laquelle des modèles à partir de premiers principes sont connus. En s'appuyant sur des développements théoriques récents en théorie des perturbations gravitationnelles et en théorie des champs aléatoires contraints, le candidat retenu développera des prédictions pour des observables statistiques (comptages d'extrema, estimateurs topologiques, fonctions de corrélation d'extrema, voir e.g Pogosyan et al. 2009, MNRAS 396 ou Ayçoberry, Barthelemy, Codis 2024, A&A 686) de la toile cosmique, appliqués au champ discret de galaxies qui ne trace la matière totale que de manière biaisée. Ce modèle sera ensuite appliqué à l'analyse des données d'Euclid.
Mesures de rendement de fission pour l'évaluation de la chaleur de désintégration du combustible nucléaire usé.
La réaction de fission est un processus violent au cours duquel un noyau lourd est divisé en deux composants, les fragments de fission. La distribution des fragments de fission produits est très large ; plus de 300 isotopes radioactifs différents peuvent être produits lors de la fission et leur désintégration radioactive est une question importante pour la manipulation et le stockage sûr du combustible nucléaire usé.
Le dispositif expérimental disponible au GANIL permet une identification précise et complète des fragments de fission, avant leur désintégration radioactive.
Une campagne expérimentale a été menée au VAMOS en 2024 pour étudier la fission de différents actinides produits dans des réactions de transfert de plusieurs nucléons, sur la base de la technique de cinématique inverse.
Les données obtenues constituent une référence importante pour les modèles nucléaires et les codes de simulation de la chaleur dégagée lors de la désintégration du combustible nucléaire usagé.
Ces données innovantes contr
Leçons conceptuelles de la causalité indéterminée
Récemment, il a été reconnu que les structures causales en mécanique quantique permettent de concevoir une nouvelle ressource non classique, connue sous le nom de causalité indéterminée, qui ouvre de nouvelles perspectives en information quantique. Malgré des avancées théoriques significatives et quelques réalisations expérimentales, les implications conceptuelles de la causalité indéterminée restent mal comprises. Dans le même temps, la causalité quantique est devenu un élément fondamental du formalisme mathématique afin d’élucider les divergences entre les approches opérationnelles et spatiotemporelles en physique. Elle a déjà facilité une compréhension améliorée de concepts fondamentaux tels que les événements (Vilasini et Renner, Phys. Rev. Lett. 133, 080201), les faits (Brukner, Nature Phys. 16, 1172–1174, 2020), les entrées/sorties (Chiribella et Liu, Comm. Phys. 5, 190, 2022), les systèmes (Grinbaum, Stud. Hist. Phil. Mod. Phys. 58, 22-30, 2017) et le calcul (Araujo et al., Phys. Rev. A 96, 052315, 2017).
Dans cette thèse, le candidat développera une compréhension systématique des leçons conceptuelles de la causalité indéterminée au sein des cadres classiques, quantiques et des théories probabilistes généralisées (GPT). Il examinera la signification fondamentale des configurations bipartites et multipartites, y compris leurs capacités spatio-temporelles et computationnelles. Pour réaliser des progrès significatifs dans le domaine des fondements de la théorie quantique, le candidat cherchera à appliquer la causalité indéterminée pour approfondir notre compréhension de la théorie quantique standard et de ses interprétations.
Les questions de recherche spécifiques incluent :
• Établir des bases conceptuelles pour l'identification des systèmes et des événements à travers le temps, en particulier en relation avec les ordres causaux indéfinis et les scénarios de « l'ami de Wigner ».
• Placer cette discussion fondamentale émergente dans un cadre philosophique et métaphysique plus large.
• Aborder la notion d'agent/observateur en tant qu'entité théorique plutôt que métathéorique.
Des publications sont attendues dans des revues de physique (PRL, PRA, NJP, Quantum) et/ou dans des revues de philosophie de la physique (Philosophy of Physics, BJPS, Found. Phys., SHPMP). Des collaborations sont prévues avec des groupes en France, en Autriche, en Belgique et au Canada.
Génération d’harmoniques d’ordre élevé en cavité comme source quantique attoseconde
La physique attoseconde est à la pointe de la spectroscopie résolue en temps. En effet, elle exploite la sonde d’impulsion lumineuse la plus courte qui puisse être produite expérimentalement, grâce au processus de génération d’harmoniques d’ordre élevé (HHG). Une méthode standard pour déclencher le processus HHG consiste à soumettre un système atomique à un champ électromagnétique oscillant dont la force est comparable au potentiel de Coulomb liant les électrons au noyau. Cet effet optique non linéaire et nonperturbatif produit un rayonnement cohérent avec un spectre très large dans la gamme de fréquences de l’extrême ultraviolet (XUV), qui forme des impulsions attosecondes (1e-18 s). Depuis sa découverte à la fin des années 1980, des efforts expérimentaux et théoriques continus ont été consacrés à la compréhension complète de ce phénomène complexe. Malgré l’immense succès de la science attoseconde, il n’y a toujours pas de consensus sur une description quantique du processus. Nous pensons qu’une telle description de la HHG ferait progresser notre compréhension de l’optique non linéaire et ouvrirait de nouvelles perspectives pour la science attoseconde.
Optimisation de détecteurs de rayonnement gamma pour l’imagerie médicale. Tomographie par émission de positrons temps de vol
La tomographie par émission de positrons (TEP) est une technique d'imagerie médicale nucléaire largement utilisée en oncologie et en neurobiologie.
Nous vous proposons de contribuer au développement d’une technologie ambitieuse et brevetée : ClearMind. Le premier prototype est à nos laboratoires. Ce détecteur de photons gamma utilise un cristal monolithique de PbWO4, dans lequel sont produits des photons Cherenkov et de scintillation. Ces photons optiques sont convertis en électrons par une couche photo-électrique et multipliés dans une galette à microcanaux. Les signaux électriques induits sont amplifiés par des amplificateurs gigahertz et numérisés par les modules d'acquisition rapide SAMPIC. La face opposée du cristal sera équipée d'une matrice de photo-détecteur en silicium (SiPM).
Vous travaillerez dans un laboratoire d’instrumentation avancé dans un environnement de physique des particules.
Il s’agira d’abord d’optimiser les « composants » des détecteurs ClearMind, pour parvenir à des performances nominales. Nous travaillerons sur les cristaux scintillants, les interfaces optiques, les couches photo-électriques et les photo-déteceturs rapides associés, les électroniques de lectures.
Il s’agira ensuite de caractériser les performances des détecteurs prototypes sur nos bancs de mesure en développement continu.
Il s’agira enfin de confronter les propriétés mesurées de nos détecteurs à des simulations dédiées (Monté-Carlo sur logiciels Geant4/Gate).
Un effort particulier sera con-sacré au développement de cristaux scintillants ultra-rapides dans le contexte d’une collaboration européenne.
Etude théorique des propriétés physiques et optiques de certaines surfaces d’oxyde de titane pour des applications de détection de gaz à effets de serre
La communauté internationale est engagée dans l’élaboration de la politique de réduction des émissions de gaz à effet de serre (GES), en particulier de dioxyde de carbone (CO2), afin de réduire les risques associés au réchauffement climatique. Par conséquent, il est très important de trouver des processus à faible coût pour dissocier puis capturer le dioxyde de carbone (CO2), ainsi que de développer des capteurs à faible puissance et haute performance adaptés à la surveillance des réductions de GES. Une méthode courante et existante pour détecter la concentration de gaz est obtenue en utilisant des surfaces d’oxydes métalliques semi-conducteurs (MOS) comme SnO2, ZnO et TiO2. En outre, une voie pour réaliser la dissociation de CO2 est la décomposition catalytique assistée par plasma. Cependant, les défauts de surface, et en particulier les lacunes en oxygène et les charges qui y sont piégées, jouent un rôle important dans la (photo)réactivité du MOS. La façon dont les propriétés optiques des surfaces sont modifiées par de tels défauts n’est pas complètement comprise, ni l’effet supplémentaire de la présence du gaz. Dans certains modèles, l’importance du transfert de charge est également soulignée.
Dans ce travail de doctorat, des méthodes théoriques seront utilisées pour modéliser la surface avec des défauts et prédire les propriétés optiques. L’objectif est triple : Appliquer les cadres théoriques développés à LSI pour l’étude des défauts afin de prédire les états de charge de défaut en vrac; Étudier l’effet de la surface sur la stabilité du défaut; Étudier les propriétés optiques de masse et de surface, et découvrir les empreintes spectroscopiques de l’absorption moléculaire et de la dissociation près de la surface. Les matériaux et les gaz considérés sont des oxydes comme l’oxyde de titane, qui finissent par se déposer sur une couche d’or et du dioxyde de carbone. La méthode théorique sera la méthode de la théorie des perturbations fonctionnelles de la densité dépendante du temps (TDDFPT) développée à LSI en collaboration avec SISSA, Trieste (Italie).
Ref.: I. Timrov, N. Vast, R. Gebauer, S. Baroni, Computer Physics Communications 196, 460 (2015).
MESURE DE LA MASSE DU BOSON W AVEC LE DETECTEUR ATLAS AU LHC
L'objectif de la thèse est une mesure précise de la masse et de la largeur du boson W, en étudiant ses desintegrations leptoniques avec le détecteur ATLAS au LHC. L'analyse sera basée sur l'ensemble des données du Run 2 du LHC, et vise une précision sur la masse de 10 MeV.
Le candidat s'impliquera dans l'étude de l'alignement et de la calibration du spectromètre à muons d'ATLAS. L'IRFU a joué un rôle prépondérant dans la conception et la construction de cet instrument et s'implique fortement dans son exploitation scientifique. Il s'agira de combiner de manière optimale la mesure donnée par le spectromètre avec celle du détecteur interne d'ATLAS, à l'aide d'un modèle précis du champ magnétique et du positionnement relatif de ces systèmes, afin de reconstruire la cinématique des muons avec la précision requise pour la mesure.
La deuxième phase du projet consiste à améliorer la modélisation du processus de production et de désintégration des bosons W et d'optimiser l'analyse en tant que telle afin de minimiser l'incertitude finale de la mesure. Le résultat de la mesure sera combiné avec les autres mesures existantes, et interprété en termes de compatibilité avec la prédiction du Modèle Standard ou comme indication de la présence de nouvelle physique.