Effet de la combinaison des radiations ionisantes et de molécules radio-sensibilisantes dans des modèles de cancer du sein
Le programme proposé vise à évaluer l'efficacité de molécules améliorant les effets de la radiothérapie, dans des modèles in vitro et in vivo de cancer du sein. Deux types de molécules, à savoir un inhibiteur de la maintenance du génome mitochondrial et un inhibiteur de la voie du Base Excision Repair feront l'objet d'un test d'efficacité de radiopotentialisation dans les modèles.
Les inhibiteurs pressentis, qu’ils ciblent la maintenance du génome mitochondrial ou la voie du BER, font déjà l’objet de recherches in vitro, au sein du laboratoire et chez des collaborateurs. Nous avons montré que l’inhibition des mécanismes étudiés permet une diminution de la réparation des cassures de l’ADN suivant un stress génotoxique. Durant ce projet, nous évaluerons les effets des inhibiteurs sur les réparations des dommages à l’ADN induits par les irradiations de différents types (conventionnelle, ultra haut débit de dose, voire débit de dose extrême), ainsi que les mécanismes associés.
Une variabilité de réponse aux combinaisons thérapeutiques est très fréquemment observée lors du passage des modèles in vitro aux modèles in vivo. Ainsi nous évaluerons les inhibiteurs d’une part sur des modèles de lignées cellulaires bien caractérisés au laboratoire, et correspondant à différents sous-types de cancer du sein. D’autre part, les études seront complétées par une validation des effets relevés in vitro sur un modèle murin de cancer du sein. Ce modèle de xénogreffes, développé dans des animaux immunocompétents, permet un suivi clinique, histologique, et immunitaire des animaux et de leurs tumeurs afin de confirmer l'intérêt des molécules pour une application thérapeutique en appui à la radiothérapie.
Ce programme bénéficiera des collaborations du laboratoire avec des physiciens et des chimistes, et des installations expérimentales et plateformes de l'IRCM (irradiation, expérimentation animale, microscopie, cytométrie, etc...)
Corrosion sous contrainte du verre : régions de vitesses élevées de propagation de fissure sous critique
Les verres d’oxydes sont utilisés dans un grande variété d’applications industrielles en raison de leurs multiples propriétés avantageuses : transparence optique, bonnes propriétés mécaniques et thermiques, durabilité chimique, biocompatibilité et bioactivité. Cependant, un inconvénient majeur de ces verres est leur fragilité. La fracture dynamique du verre (vitesse de propagation de fissure ~km/s, comme dans le cas d’un verre tombant par terre et se brisant) en est un exemple bien connu. Il existe également un autre mode de fracture prépondérant et plus lent (10e-11 à 10e2 m/s). La vitesse de propagation de ces fissures sous-critiques est pilotée par la contrainte locale ressentie en pointe de fissure, appelée facteur d’intensité de contraintes et dépend des conditions environnementales, incluant l’humidité de l’air et la température.
Actuellement, notre dispositif expérimental permet de suivre la position du front de fissure au cours du temps grâce à un microscope tubulaire doté d’une caméra. Le traitement des images acquises permet de déterminer la vitesse du front de fissure et révèle la limite environnementale et la région I. Cependant, capturer les régions II et III n'est pas possible avec le dispositif actuel. Plusieurs raisons concourent à cette limitation : la vitesse élevée du front de fissure (10e-4 to 1500 m/s), la taille de l'échantillon (5×5×25 mm^3), la vitesse d’acquisition des caméras, etc.
Notre équipe a utilisé la technique de la chute de potentiel pour évaluer la vitesse du front de fissure lorsque v > 10e-4 m/s dans le PMMA. Cette méthode consiste à déposer une série de bandes conductrices parallèles à la surface d’un échantillon et d’utiliser un oscilloscope (haute fréquence) pour identifier quand le front de fissure sectionne les bandes conductrices ce qui conduit à un saut dans la résistance électrique. Nous souhaitons maintenant adapter cette technique aux échantillons DCDC de verres d'oxyde. L'objectif de la thèse est de développer et d’appliquer cette technique de chute de potentiel aux échantillons DCDC. Le défi est d’accéder aux variations fines de la vitesse de fissuration avec des résolutions en espaces et en temps de l’ordre de 50 microns et de la nanoseconde. L'étudiant en thèse participera à toutes les étapes de la réalisation des expériences : conception et dépôt des bandes conductrices parallèles sur la surface de l’échantillon en verre en utilisant une salle blanche, réalisation d'expériences de corrosion sous contraintes (CSC) dans les Régions II et III, et analyse des données acquises pendant l'expérience de CSC.
Mesure du flux elliptique des quarks charmés dans les collisions Pb-Pb semi-centrales à 5 TeV au CERN avec LHCb.
Les collisions d'ions lourds offrent une opportunité unique d'étudier le plasma de quarks et de gluons (QGP), un état exotique de la matière dans lequel les quarks et les gluons ne sont plus confinés dans les hadrons, et qui aurait existé quelques microsecondes après le Big Bang. Parmi les sondes clés pour l'étude du QGP figurent les quarks charmés. En effet, ces derniers conservent l'histoire de leurs interactions avec le QGP, les rendant essentiels pour comprendre les propriétés du QGP. La production de quarks charmés et leurs interactions avec le QGP sont étudiées à travers les mesures des hadrons, mésons et baryons contenant au moins un quark ou antiquark charm, tels que les mésons D0 ou les baryons Lambda_c. Cependant, le processus d'hadronisation — la manière dont les quarks charm se confinent dans des baryons ou mésons incolores — reste encore mal compris.
Une approche prometteuse pour approfondir la compréhension de l'hadronisation des quarks charmés réside dans la mesure de leur écoulement elliptique, une mesure de corrélations angulaires à longue distance, une signature des effets collectifs dus à la thermalisation du QGP. En comparant l'écoulement elliptique des mésons D0 et des baryons Lambda_c, sensible aux propriétés du milieu créé, les chercheurs peuvent approfondir leurs connaissance sur le mécanisme d'hadronisation des quarks charmés.
Pour mesurer cet écoulement elliptique, l'étudiant.e sélectionné.e développera une méthode innovante exploitant pleinement les capacités du détecteur LHCb. Cette méthode, jamais appliquée auparavant, permet une interprétation plus intuitive et théoriquement robustes des mesures d'écoulement elliptique par rapport aux méthodes traditionnelles. Le/la candidat.e adaptera cette technique pour le détecteur LHCb afin de mesurer, comparer et interpréter l'écoulement elliptique des baryons charmés Lambda_c et des mésons D0 dans les nouvelles données PbPb collectés par LHCb en 2024.
Traitements de surfaces anti-microbiens
Le développement de surface limitant la prolifération microbienne est un enjeu crucial pour la santé publique. Dans le contexte des vols habités vers des destinations éloignées telles que l'orbite terrestre basse, la Lune et éventuellement Mars, la contamination biologique représente une menace significative pour la santé de l'équipage et la préservation des équipements spatiaux. La microflore transportée par l'équipage dans les habitats clos constitue un risque inévitable, accentué par les périodes prolongées d'isolement et de dépendance des systèmes de support de vie en milieu fermé. Outre les risques pour la santé des astronautes, il est connu que la bio-contamination peut endommager les équipements critiques à bord des vaisseaux spatiaux. Par ailleurs, les micro-organismes, exposés à l'environnement spatial, peuvent développer une résistance et muter, transformant les microbes bénins en agents pathogènes. Afin d'atténuer ces risques, des mesures efficaces, telles que des systèmes de filtration et des surfaces autodécontaminantes limitant la prolifération bactérienne, doivent être mises en place. L'expérience MATISS (2016-2025), à laquelle ont été associés les laboratoires SyMMES et PRISM, a exploré l'utilisation de revêtements hydrophobes pour réduire la bio-contamination à bord de l'ISS, mais des améliorations sont nécessaires, notamment pour trouver des solutions alternatives aux agents perfluorés et aux antibiotiques mais aussi applicable sur une large gamme de matériaux. De telles avancées peuvent avoir de nombreuses applications, bien plus larges que le domaine spatial, comme la sécurité alimentaire (emballages), les matériaux implantables, le traitement des adductions d’eau potable, l’hygiène des transports publiques, etc. Cette thèse collaborative entre le SyMMES et le CEA-Leti à Grenoble vise à développer des couches antimicrobiennes durables sans substances nocives, en explorant différents voies de fonctionnalisation, telle que la formation de monocouche auto-assemblées, l’électropolymérisation sur matériaux conducteurs, et de manière très originale en mettant en œuvre une nouvelle méthode de dépôt par plasma atmosphérique froid, adaptée aux grandes surfaces, et surtout applicable à un large panel de matériaux de différente nature.
Matériaux topologiques et altermagnétiques: quelle puissance peut-on tirer de l’effet Hall anomal ?
L’argument majeur pour favoriser le développement de l’électronique de spin ainsi que des matériaux topologiques est la faible puissance dissipée lorsque l’on utilise les degrés de liberté de spin et les configurations transverses de type configuration de Hall. En effet, dans le cas d’une phase topologique, on s’attend à ce que le champ magnétique effectif généré ne dissipe pas. Une telle assertion doit cependant faire l’objet d’une description théorique dans le cadre d’un dispositifs électronique réaliste en régime stationnaire. Le but de la thèse est de déterminer la puissance utile de ces dispositifs, dans un étude à la fois expérimentale et théorique.
Dans ce contexte, la définition de la puissance utile est un problème ouvert. En effet, la thermodynamique de ce type de systèmes hors équilibre met en jeu des effets croisés entre les degrés de liberté des porteurs de charges électriques, ceux du spin de ces porteurs, ainsi que ceux de l’aimantation. Les effets croisés hors équilibre sont décrits de façon très générale par les fameuses relations de réciprocité d’Onsager. Nous avons développé une méthode variationnelle permettant d’établir l’état stationnaire d’une barre de Hall et la puissance dissipée dans un circuit de charge, en fonction de la résistance de charge et de l’angle de Hall. Un résultat inattendu prédit l’existence d’un maximum (« maximum power transfer theorem »). Des mesures préliminaires sur la base de l’effet Hall anomal ont récemment validé la prédiction. Cette confirmation expérimentale nous permet d’établir un projet de thèse qui a pour ambition de reproduire les mesures sur un vaste ensemble de matériaux (métaux, semiconducteurs, oxides) et en particulier des matériaux topologiques magnétiques, dit altermagnétiques.
En outre, une étude en résonance ferromagnétique (dit de pompage de spin) mettra en jeu des effets du type thermoélectriques, dont les propriétés dissipatives, mesurées sur un circuit de charge adjacent, restent à déterminer.
Peut-on prédire la météo ou le climat?
D'après l'expérience de chacun, prévoir le temps de manière fiable à plus de quelques jours semble être une tâche impossible pour nos meilleures agences météorologiques. Pourtant, nous connaissons tous des exemples de "dictons météorologiques" qui permettent à de vieux sages de prédire le temps qu'il fera demain sans résoudre les équations du mouvement, et parfois mieux que les prévisions officielles. À plus long terme, les modèles climatiques ont permis de prédire assez précisément la variation de la température moyenne de la Terre due aux émissions de CO2 sur une période de 50 ans.
À la fin des années 50 et 60, Lewis Fry Richardson, puis Edward Lorenz ont jeté les bases de la résolution de cette énigme, en s'appuyant sur des observations, des arguments phénoménologiques et des modèles d'ordre inférieur.
Les progrès actuels des mathématiques, de la physique des turbulences et des données d'observation permettent aujourd'hui d'aller au-delà de l'intuition et de tester la validité de l'effet papillon dans l'atmosphère et le climat. Pour cela, nous utiliserons de nouveaux outils théoriques et mathématiques et de nouvelles simulations numériques basées sur la projection des équations du mouvement sur une grille exponentielle permettant d'obtenir des valeurs réalistes/géophysiques des paramètres, à un coût modéré de calcul et de stockage.
L'objectif de ce doctorat est de mettre en œuvre les nouveaux outils sur des observations réelles de cartes météorologiques, afin d'essayer de détecter l'effet papillon sur des données réelles. À plus long terme, l'objectif sera d'étudier l'hypothèse de "l'universalité statistique", de comprendre si et comment l'effet papillon conduit à des statistiques universelles qui peuvent être utilisées pour les prévisions climatiques, et si nous pouvons espérer construire de nouveaux « dictons météorologiques » en utilisant l'apprentissage automatique, permettant de prédire le climat ou le temps sans résoudre les équations.
Développement d’un système de détection des rayons-X pour l’identification des Noyaux Superlourds.
La synthèse des noyaux superlourds est un objectif majeur de la Physique Nucléaire moderne qui dépend de leur identification en masse et en charge. S3 et SIRIUS permettent de séparer les isotopes superlourds et vont être équipés de détecteurs de rayons-X pour l’indentification en Z. Le ou la Doctorant.e développera des détecteurs de rayons-X pour SIRIUS et les utiliser pour étudier les noyaux superlourds. Elle/Il travaillera au GANIL et dans des laboratoires internationaux comme ANL.
Etude des mécanismes de réaction pour la synthèse d’éléments super-lourds
Cette thèse a pour but d’étudier les mécanismes de réaction menant à la synthèse de noyaux super-lourds en appui au programme de recherche expérimental qui sera développé auprès de l’installation S3 de Spiral2 au GANIL à Caen. Elle vise à renforcer la précision de la modélisation de la réaction en évaluant, grâce à l’analyse d’incertitudes, les expériences les plus prometteuses pour contraindre les paramètres et la modélisation.
L'une des principales activités de la physique nucléaire est l'étude des propriétés des noyaux exotiques jusqu'aux limites d’existence des noyaux, dans les régions où les rapports proton-neutron sont extrêmes (driplines proton/neutron) et aux nombres de masse A et atomiques Z les plus élevés. Les noyaux dits super-lourds ne peuvent exister au-delà de la limite établie par le modèle de la goutte liquide – définie par une barrière de fission qui disparaît –, que grâce aux effets en couches de la mécanique quantique. Ces noyaux sont particulièrement intéressants parce qu'ils se situent à la limite entre la physique des petits systèmes à quelques corps et celle des systèmes à grand nombre de corps : les nombres magiques de protons et de neutrons, Z et N, sont remplacés par une région ou un îlot de magicité étendu en Z et N.
La synthèse de ces noyaux très- et super-lourds par des réactions de fusion-évaporation est un défi expérimental en raison des sections efficaces extrêmement faibles. La modélisation de la réaction complète afin de guider les expériences est également un défi difficile, car les modèles développés pour les noyaux plus légers ne peuvent pas être simplement extrapolés. Les réactions de fusion sont entravées par rapport à ce qui est observé avec les noyaux légers en raison de la très forte interaction Coulombienne, qui est renforcée par la forte répulsion causée par le grand nombre de charges positives (protons) dans le système, en concurrence avec la force d'attraction forte (nucléaire) dans un régime hautement dynamique. Le pouvoir prédictif des modèles doit être amélioré, bien que l'origine du phénomène d'entrave soit qualitativement bien comprise. Les ambiguïtés quantitatives sont suffisamment importantes pour observer des différences de quelques ordres de grandeur dans les probabilités de fusion calculées par différents modèles. Une petite modification de la section efficace pourrait nécessiter de nombreux mois pour réaliser des expériences réussies.
Au GANIL, en collaboration avec d'autres instituts, nous avons développé un modèle qui décrit les trois étapes de la réaction de synthèse des noyaux super-lourds. Les développements futurs se concentreront sur la recherche de moyens d'évaluer les modèles afin d'améliorer leur pouvoir prédictif, notamment en concevant des expériences spécifiques afin de contraindre l’amplitude de l'entrave à la fusion. Bien entendu, une analyse minutieuse de l'incertitude permettra d'améliorer le pouvoir prédictif des modèles. Des méthodes standard ainsi que des méthodes d'analyse de données de pointe telles que l'analyse bayésienne peuvent être utilisées.
Ce travail de doctorat sera effectué en collaboration avec le groupe expérimental du GANIL et une équipe de recherche à Varsovie (Pologne). En fonction des compétences de l'étudiant, la thèse sera plus orientée vers des développements formels ou vers les expériences menées dans la nouvelle installation S3 sur Spiral2. La participation aux expériences est possible.
Dimensionnement du cytosquelette en relation avec la taille et la fonction des cellules
Chaque type cellulaire, défini notamment par sa fonction, se caractérise par une gamme de taille qui lui est spécifique. En effet, la taille des cellules au sein d'un type cellulaire donné présente une distribution étroite qui peut varier de plusieurs ordres de grandeur entre les cellules les plus petites, telles que les globules rouges, et les plus grandes comme les cellules musculaires. Cette caractéristique de taille est essentiellement maintenue au cours de la vie d'un individu et demeure très conservée chez les mammifères. L’ensemble de ces caractéristiques suggère donc que le maintien d'une « taille appropriée » pour une cellule donnée pourrait jouer un rôle important dans l'accomplissement de ses fonctions.
Le cytosquelette d'actine, qui comprend différentes architectures intracellulaires stables et dynamiques, joue un rôle majeur dans la plasticité structurale des cellules en réponse à des changements de forme ou de taille. Nos travaux récents suggèrent que les réseaux d'actine développés à l'intérieur d'une cellule s'adaptent à la taille et au volume de la cellule lorsque ces derniers varient. Cependant, la compréhension du mécanisme par lequel les cellules adaptent le taux de renouvellement et l'organisation de leurs nombreuses structures en compétition pour un même pool de monomères d’actine demeure incomplète.
Dans ce projet, nous proposons donc d'étudier l'organisation et la dynamique des réseaux d'actine au sein de types de cellules présentant des différences de taille et de fonction fondamentales. En particulier, notre étude se concentrera sur la caractérisation de l'impact de l'organisation/dynamique de ces réseaux sur différentes fonctions cellulaires telles que la migration cellulaire ou la polarisation. La rétroaction entre la dynamique de l'architecture du cytosquelette, la taille et la fonction de la cellule sera également abordée en imposant des perturbations dans l’organisation du cytosquelette.
Aprentissage probabiliste à base de dispositifs spintroniques
Le candidat au doctorat conjoint UGA - KIT recruté devrait être en mesure de couvrir les travaux des lots de travail 1 et 2. Il/elle participera également à des réunions techniques et aura une bonne compréhension de la façon dont les tâches des autres lots de travail techniques sont exécutées, principalement par les partenaires avec un effort interne. Dans l'ensemble, le candidat au doctorat développera et optimisera des architectures compactes de calcul en mémoire, fournira des modèles de haut niveau pour une intégration ultérieure dans des conceptions à grande échelle, effectuera la validation de toutes les preuves de concepts de nouvelles implémentations architecturales. Il/elle sera également impliqué(e) dans la conception d'implémentations algorithmiques de réseaux neuronaux bayésiens adaptés à l'architecture. Plus précisément, il/elle travaillera dans les directions suivantes :
La conception et l'optimisation des réseaux neuronaux probabilistes, seront exécutées principalement dans le laboratoire SPINTEC à Grenoble, ce qui inclura :
1. la conception complète d'un accélérateur matériel sans transistor de sélection pour les opérations fréquentes de lecture et d'écriture.
2. Conception et validation d'une approche architecturale innovante capable de compenser les phénomènes de « sneaky paths ».
3. Modélisation de haut niveau de l'architecture crossbar complète qui inclut la composante stochastique.
4. Proposer un flux de simulation et de validation complet pouvant être adapté à une taille et à des paramètres d'architecture réalistes qui mettent en œuvre des tâches bayésiennes.
5. Réaliser des figures de mérite en matière de délai, de consommation d'énergie et de surcharge de surface.
Traduit avec DeepL.com (version gratuite)