Optimisation de détecteurs de rayonnement gamma pour l’imagerie médicale. Tomographie par émission de positrons temps de vol
La tomographie par émission de positrons (TEP) est une technique d'imagerie médicale nucléaire largement utilisée en oncologie et en neurobiologie.
Nous vous proposons de contribuer au développement d’une technologie ambitieuse et brevetée : ClearMind. Le premier prototype est à nos laboratoires. Ce détecteur de photons gamma utilise un cristal monolithique de PbWO4, dans lequel sont produits des photons Cherenkov et de scintillation. Ces photons optiques sont convertis en électrons par une couche photo-électrique et multipliés dans une galette à microcanaux. Les signaux électriques induits sont amplifiés par des amplificateurs gigahertz et numérisés par les modules d'acquisition rapide SAMPIC. La face opposée du cristal sera équipée d'une matrice de photo-détecteur en silicium (SiPM).
Vous travaillerez dans un laboratoire d’instrumentation avancé dans un environnement de physique des particules.
Il s’agira d’abord d’optimiser les « composants » des détecteurs ClearMind, pour parvenir à des performances nominales. Nous travaillerons sur les cristaux scintillants, les interfaces optiques, les couches photo-électriques et les photo-déteceturs rapides associés, les électroniques de lectures.
Il s’agira ensuite de caractériser les performances des détecteurs prototypes sur nos bancs de mesure en développement continu.
Il s’agira enfin de confronter les propriétés mesurées de nos détecteurs à des simulations dédiées (Monté-Carlo sur logiciels Geant4/Gate).
Un effort particulier sera con-sacré au développement de cristaux scintillants ultra-rapides dans le contexte d’une collaboration européenne.
Etude théorique des propriétés physiques et optiques de certaines surfaces d’oxyde de titane pour des applications de détection de gaz à effets de serre
La communauté internationale est engagée dans l’élaboration de la politique de réduction des émissions de gaz à effet de serre (GES), en particulier de dioxyde de carbone (CO2), afin de réduire les risques associés au réchauffement climatique. Par conséquent, il est très important de trouver des processus à faible coût pour dissocier puis capturer le dioxyde de carbone (CO2), ainsi que de développer des capteurs à faible puissance et haute performance adaptés à la surveillance des réductions de GES. Une méthode courante et existante pour détecter la concentration de gaz est obtenue en utilisant des surfaces d’oxydes métalliques semi-conducteurs (MOS) comme SnO2, ZnO et TiO2. En outre, une voie pour réaliser la dissociation de CO2 est la décomposition catalytique assistée par plasma. Cependant, les défauts de surface, et en particulier les lacunes en oxygène et les charges qui y sont piégées, jouent un rôle important dans la (photo)réactivité du MOS. La façon dont les propriétés optiques des surfaces sont modifiées par de tels défauts n’est pas complètement comprise, ni l’effet supplémentaire de la présence du gaz. Dans certains modèles, l’importance du transfert de charge est également soulignée.
Dans ce travail de doctorat, des méthodes théoriques seront utilisées pour modéliser la surface avec des défauts et prédire les propriétés optiques. L’objectif est triple : Appliquer les cadres théoriques développés à LSI pour l’étude des défauts afin de prédire les états de charge de défaut en vrac; Étudier l’effet de la surface sur la stabilité du défaut; Étudier les propriétés optiques de masse et de surface, et découvrir les empreintes spectroscopiques de l’absorption moléculaire et de la dissociation près de la surface. Les matériaux et les gaz considérés sont des oxydes comme l’oxyde de titane, qui finissent par se déposer sur une couche d’or et du dioxyde de carbone. La méthode théorique sera la méthode de la théorie des perturbations fonctionnelles de la densité dépendante du temps (TDDFPT) développée à LSI en collaboration avec SISSA, Trieste (Italie).
Ref.: I. Timrov, N. Vast, R. Gebauer, S. Baroni, Computer Physics Communications 196, 460 (2015).
MESURE DE LA MASSE DU BOSON W AVEC LE DETECTEUR ATLAS AU LHC
L'objectif de la thèse est une mesure précise de la masse et de la largeur du boson W, en étudiant ses desintegrations leptoniques avec le détecteur ATLAS au LHC. L'analyse sera basée sur l'ensemble des données du Run 2 du LHC, et vise une précision sur la masse de 10 MeV.
Le candidat s'impliquera dans l'étude de l'alignement et de la calibration du spectromètre à muons d'ATLAS. L'IRFU a joué un rôle prépondérant dans la conception et la construction de cet instrument et s'implique fortement dans son exploitation scientifique. Il s'agira de combiner de manière optimale la mesure donnée par le spectromètre avec celle du détecteur interne d'ATLAS, à l'aide d'un modèle précis du champ magnétique et du positionnement relatif de ces systèmes, afin de reconstruire la cinématique des muons avec la précision requise pour la mesure.
La deuxième phase du projet consiste à améliorer la modélisation du processus de production et de désintégration des bosons W et d'optimiser l'analyse en tant que telle afin de minimiser l'incertitude finale de la mesure. Le résultat de la mesure sera combiné avec les autres mesures existantes, et interprété en termes de compatibilité avec la prédiction du Modèle Standard ou comme indication de la présence de nouvelle physique.
Modèles réduits de turbulence pour la fusion magnétique: quand sont-ils pris en défaut, comment les enrichir ?
L'un des principaux défis auxquels est confrontée la modélisation du plasma de fusion est la nature non linéaire de la réponse du plasma. Des facteurs tels que les gradients de température et de densité, les flux et les gradients de vitesse ont tous un impact croisé sur le transport de la chaleur, des particules et de la quantité de mouvement. La modélisation d'un tel système nécessite une hiérarchie d'approches, depuis le cadre dit "1ers principes" de la théorie gyrocinétique forcée par un flux jusqu’à des modèles plus simples, basés sur une approche quasi-linéaire. Ces dernières méthodes sont numériquement efficaces et particulièrement utiles pour interpréter les données expérimentales et explorer des scénarios expérimentaux. Toutefois, cette approche se heurte à deux difficultés majeures. Premièrement, la modélisation de la région périphérique du bord du plasma, à la transition entre les lignes de champ ouvertes et fermées, est difficile en raison de la confluence de physiques sous-jacentes très différentes. Deuxièmement, la modélisation du régime « proche du seuil marginal » est également délicate car elle implique un état d'équilibre dynamique où le comportement du système est autorégulé par des modes lents à grande échelle. Le calcul de cet état est ardu et requiert de s'éloigner de l'hypothèse typique de séparation des échelles de temps entre la turbulence et le transport, ce que permet une approche gyrocinétique forcée par un flux. Des travaux récents, notamment de notre équipe, suggèrent que les modèles de transport quasi linéaires actuels peuvent présenter des lacunes importantes à la fois dans la région périphérique et dans ce régime proche du seuil marginal, pertinent pour les machines du futur. Nous sommes maintenant en mesure d'aborder ces deux questions. Nous avons en effet accès à des outils développés au sein de notre collaboration, au meilleur niveau de la recherche dans ces deux thématiques.
Un des objectifs de la thèse vise à comparer finement les prédictions de transport au bord du plasma ainsi que dans des régimes proches du seuil marginal données par le code gyrocinétique GYSELA, forcé par un flux, avec celles du cadre intégré utilisant le modèle quasi-linéaire réduit QuaLiKiz. En parallèle à la recherche de désaccords entre ces deux approches –par le biais de simulations HPC (high performance computing)– dans des régimes que l'on soupçonne potentiellement problématiques, l'étudiant.e développera également des modèles réduits non-linéaires susceptibles de pallier les insuffisances observées de l'approche quasi-linéaire.