Analyse et conception de surfaces à impédance à dispersion contrôlée

L'ingénierie de la dispersion (DE) désigne le contrôle de la propagation des ondes électromagnétiques dans une structure en modulant la relation entre la fréquence et la vitesse de phase. Grâce à des matériaux et des surfaces artificiellement conçus, il est possible d’ajuster cette relation afin d’obtenir des comportements de propagation non conventionnels, permettant ainsi un contrôle précis des effets dispersifs du système. Dans le domaine des antennes, le DE peut améliorer plusieurs aspects essentiels des performances en rayonnement, notamment la largeur de bande en gain, la précision de balayage du faisceau et, plus généralement, la réduction des distorsions inhérentes aux variations de fréquence. Il peut également permettre des fonctionnalités supplémentaires, telles que le fonctionnement multibande ou le comportement multifocal dans des antennes à lentilles ou réflecteurs.

Cette thèse vise à étudier les phénomènes physiques régissant le contrôle des vitesses de phase et de groupe dans des surfaces artificielles bidimensionnelles présentant des impédances effectives dépendantes de la fréquence. Une attention particulière sera portée aux architectures à alimentation spatiale, telles que les réseaux transmetteurs et réflecteurs, où la dispersion joue un rôle déterminant. L’objectif est d’établir des formulations analytiques permettant de contrôler simultanément le retard de groupe et le retard de phase, de développer des modèles généraux et d’évaluer les limites fondamentales de ces systèmes en termes de performances en rayonnement. Ce travail est particulièrement pertinent pour les antennes à très fort gain, domaine dans lequel l’état de l’art reste limité. Les conceptions actuelles basées sur le DE présentent généralement une bande passante étroite, et aucune solution compacte à très fort gain (> 35 dBi) ne parvient encore à surmonter les dégradations liées à la dispersion, telles que la baisse de gain ou le dépointage du faisceau.

Le doctorant développera des outils théoriques et numériques, étudiera de nouveaux concepts de cellules unitaires périodiques pour les surfaces d’impédance, et concevra des architectures d’antennes avancées exploitant des principes tels que le délai de temps réel, le fonctionnement multibande à ouverture partagée ou la focalisation en champ proche avec minimisation des aberrations chromatiques. Le projet explorera également des technologies de fabrication alternatives afin de dépasser les contraintes des procédés classiques de PCB et de libérer de nouvelles capacités de contrôle de la dispersion.

Magnétomètres à pompage optique à 3He

Le laboratoire, spécialisé dans la mesure magnétique de haute résolution et de haute précision, développe et fournit depuis plusieurs décennies différentes générations de magnétomètres à pompage optique de l'hélium-4. Ces instruments sont notamment utilisés comme référence sur les satellites de la mission ESA Swarm lancés fin 2013 et ceux de la mission NanoMagSat qui devraient les rejoindre à partir de fin 2027.

En vue de diversifier ses activités et de viser des applications de type capteur abandonné pour lesquelles les contraintes de consommation peuvent être très importantes, le laboratoire souhaite développer une technologie de magnétomètre utilisant cette fois l'atome d'hélium-3 comme élément sensible. La durée de vie de l'état de l'atome d'hélium-3 utilisé pour mesurer le champ magnétique est effectivement beaucoup plus longue que celle de l'état équivalent de l'hélium-4. Cela permet de réduire significativement le besoin de pompage et d'envisager un gain important en termes de consommation énergétique du système. Notre objectif est de démontrer le fonctionnement de cette architecture de magnétomètre afin de réaliser un instrument combinant à la fois un très haut niveau de performances métrologiques et de frugalité énergétique pour ces applications très spécifiques.

L'objet de ce travail de thèse sera donc de concevoir, mettre en œuvre et évaluer une architecture de magnétomètre hélium-3, avec des défis électroniques spécifiques à aborder pour permette d'atteindre cet objectif (chaîne optique à 1083 nm, système de pilotage électronique).

Nanoplaquettes de semi-conducteurs III-V

Les nanoplaquettes semi-conducteurs (NPLs) sont une classe de nanostructures bidimensionnelles qui possèdent des propriétés électroniques et optiques distinctes de celles des quantum dots sphériques (QDs). Ils présentent un confinement quantique fort dans une seule dimension, l'épaisseur, qui peut être contrôlée à la monocouche près par des méthodes de synthèse chimique en solution. De ce fait les NPLs émettent une lumière avec une largeur spectrale extrêmement étroite. En même temps, ils présentent un coefficient d’absorption très élevé. Ces propriétés en font des candidats idéals pour différentes applications (diodes électroluminescentes pour des écrans à consommation électrique réduite, photocatalyse, émetteurs à photons uniques, lasers,…).
Pour l’instant seule la synthèse de NPLs de chalcogénures de métaux est maîtrisée. Ces matériaux présentent soit des éléments toxiques (CdSe, HgTe, etc.) soit une grande largeur de bande interdite (ZnS, ZnSe). Pour ces raisons le développement des méthodes de synthèse pour des NPLs de semi-conducteurs III-V, tel que l’InP, InAs et InSb présente un grand enjeu. Dans cette thèse nous développerons des nouvelles approches synthétiques pour la croissance des NPLs d’InP, explorant différentes voies et utilisant des caractérisations in situ ainsi que la méthode de plans d’expérience assistée par machine learning. Des simulations numériques seront utilisées pour déterminer la réactivité des précurseurs et pour modéliser les mécanismes induisant la croissance anisotrope.

Optimisation topologique des performances optiques de µLED

Les performances des micro-LEDs (µLEDs) sont fondamentales pour les micro-écrans, un domaine d’excellence du laboratoire LITE au CEA-LETI. Cependant, simuler ces composants est complexe et coûteux en calculs, en raison de la nature incohérente des sources lumineuses et des géométries impliquées. Cela limite la possibilité d’explorer efficacement des espaces de conception multi-paramètres.

Cette thèse propose de développer une méthode innovante basée sur les éléments finis pour accélérer les simulations tout en rendant possible l’utilisation de l’optimisation topologique sur ces sources incohérentes. L’objectif est de produire des designs non intuitifs maximisant les performances tout en respectant les contraintes industrielles.

Le travail se divise en trois phases :

- Développer une méthode de simulation rapide et fiable, en intégrant des approximations physiques adaptées aux sources incohérentes et en réduisant les temps de calcul d’un facteur significatif.
- Concevoir un cadre d’optimisation topologique robuste, intégrant des contraintes de fabricabilité, pour générer des designs immédiatement réalisables.
- Réaliser un prototype à base de "composants sur étagère" du laboratoire qui consiste en une gravure de motifs complexes sur une couche de diélectrique au dessus d'une µLED. Cette partie est sujette à l'intégration de la thèse dans les projets axés "Métasurfaces" du laboratoire afin de profiter d'un financement type IPCEI ou projet européen. Cette partie est optionnelle dans le projet de thèse, à moduler selon opportunités de financement d'un tel prototype.

Les résultats attendus incluent des designs optimisés pour micro-écrans offrant des performances accrues et une méthodologie généralisable à d'autres dispositifs photoniques. Les efforts consentis à développer une telle méthodologie pourront bénéficier à d'autres laboratoires du DOPT, travaillant eux aussi sur les métasurfaces.

Modélisation et caractérisation des transistors CFET pour l’amélioration des performances électriques

Les transistors CFET (Complementary Field Effect Transistors) représentent une nouvelle génération de dispositifs CMOS empilés verticalement, offrant un fort potentiel pour poursuivre la miniaturisation des circuits intégrés et répondre aux exigences du calcul haute performance.

L’objectif de cette thèse est d’étudier et d’optimiser la mise en contrainte du canal de conduction afin d’accroître la mobilité des porteurs et d’améliorer les performances électriques des CFET. Le travail portera à la fois sur la modélisation numérique des procédés technologiques, réalisée par éléments finis, et sur la caractérisation expérimentale des déformations cristallines à l’aide de la microscopie électronique en transmission couplée à la diffraction électronique précessionnée (TEM-PED).

La partie modélisation visera à prédire les distributions de contraintes et leur impact sur les propriétés électriques, en intégrant la complexité des empilements technologiques et des étapes critiques du procédé, telles que l’épitaxie. En parallèle, la caractérisation par TEM-PED permettra de mesurer les champs de déformation et de confronter les simulations aux observations expérimentales.

L’ensemble du travail consistera à développer des outils de modélisation et des méthodologies de caractérisation adaptés à ces structures avancées, afin d’améliorer la précision spatiale, la reproductibilité et la compréhension des mécanismes de contrainte au cœur des transistors CFET.

Étude et modélisation des dynamiques de domaines ferroélectriques et antiferroélectriques dans les condensateurs à base d’oxyde d’hafnium

Le contexte de la thèse s’inscrit dans l’exploration de nouvelles technologies de supercondensateurs et de dispositifs hybrides de stockage d’énergie, visant à concilier miniaturisation, forte densité de puissance et compatibilité avec les procédés microélectroniques. L’expertise du laboratoire d’accueil (LTEI/DCOS/LCRE) en intégration de couches minces et en ingénierie de matériaux diélectriques ouvre aujourd’hui des perspectives inédites pour l’étude des comportements ferroélectriques et antiferroélectriques dans les oxydes d’hafnium dopés.

La thèse portera plus particulièrement sur l’étude expérimentale et la modélisation physique de condensateurs à couches minces d’oxyde d’hafnium (HfO2), dopés de manière à présenter des propriétés ferroélectriques (FE) ou antiferroélectriques (AFE) selon la composition et les conditions de dépôt, par exemple à travers l’incorporation de ZrO2 ou de SiO2. Ces matériaux présentent un fort potentiel pour la réalisation de dispositifs combinant fonctions de mémoire non-volatile et de stockage d’énergie sur une même plateforme CMOS-compatible, ouvrant ainsi la voie à des systèmes autonomes à très faible consommation, tels que les architectures d’edge computing, les capteurs environnementaux ou les objets connectés intelligents.

Le travail de recherche consistera à fabriquer et caractériser des condensateurs métal–isolant–métal (MIM) à base d’HfO2 dopé, intégrés sur substrats silicium, puis à étudier expérimentalement les mécanismes de relaxation des domaines ferroélectriques et antiferroélectriques à partir de mesures courant–tension (I–V) et polarisation–champ électrique (P–E), réalisées sous différentes fréquences, amplitudes et conditions de cyclage. L’analyse des boucles d’hystérésis mineures permettra d’extraire la distribution des énergies d’activation et de modéliser la dynamique de relaxation des domaines ferroélectriques. Un modèle physique sera ensuite élaboré ou adapté afin de décrire les transitions FE/AFE sous excitation électrique cyclique, en tenant compte des phénomènes de piégeage de charges, des contraintes mécaniques et des effets de nucléation et de croissance des domaines.

L’ensemble de ces travaux visera à optimiser la densité d’énergie récupérable et le rendement énergétique global des dispositifs, tout en établissant des critères de conception pour des composants de stockage d’énergie compacts, efficaces et pleinement intégrables dans les technologies silicium. Les connaissances acquises contribueront à une meilleure compréhension des mécanismes dynamiques régissant le comportement FE/AFE de l’HfO2 dopé et bénéficieront potentiellement à d’autres domaines tels que les mémoires ferroélectriques, la récupération d’énergie et les architectures neuromorphiques à basse consommation.

Réalisation de metasurface par auto-assemblage de copolymères à blocs

Les copolymères à blocs (BCP) sont une technologie en pleine expansion industrielle, offrant des perspectives prometteuses pour la nanostructuration de matériaux. Ces polymères, constitués de chaînes de blocs chimiquement distincts, s'auto-assemblent pour former des structures ordonnées à l'échelle nanométrique. Cependant, leur utilisation actuelle est limitée à une nanostructuration spécifique par produit (1 produit = 1 nanostructuration), restreignant ainsi leur potentiel d'application.
Cette thèse propose de développer une méthode innovante pour créer plusieurs motifs en une seule étape d'auto-assemblage des BCP grâce à un mélange de deux produits. L'étudiant(e) s'intéressera également au contrôle de la localisation des motifs en utilisant la chemoepitaxie, une technique combinant le guidage chimique et morphologique pour contrôler précisément la position des motifs à l’échelle micrométrique et nanométrique. Le travail se déroulera en plusieurs étapes : compréhension des mécanismes des copolymères à blocs mélangés, développement de substrats fonctionnalisés pour la chemoepitaxie en utilisant des techniques de lithographie avancées, et réalisation d'expériences d'auto-assemblage des BCP sur ces substrats. Les structures obtenues seront analysées grâce aux équipements de métrologie disponibles au CEA-Leti.
Les applications visées incluent la création de nanostructures capables d'interagir avec la lumière, réduisant la diffraction et contrôlant la polarisation. Les résultats attendus incluent la démonstration de la capacité à générer plusieurs types de motifs en une seule étape d'auto-assemblage, avec un contrôle précis de leur position et de leurs dimensions.

Impact de la magnétohydrodynamique sur l’accès et la dynamique des régimes d’opération avec point X rayonnant (XPR)

L'opération d'ITER et de futures centrales à fusion devra en particulier garantir la pérennité des composants face au plasma (CFP) équipant le divertor, cet élément périphérique dédié à l'extraction de la chaleur et des particules. Dans ce cadre, deux facteurs clés sont à prendre en compte : les flux de chaleur devront rester en dessous des limites technologiques à la fois en stationnaire et lors d'évènements transitoires violents. Un régime d'opération récemment développé satisfait ces deux contraintes : le point X rayonnant (XPR). Les expériences sur plusieurs tokamaks, notamment sur WEST qui détient le record de durée plasma dans ce régime (> 40 secondes), ont montré qu'il conduisait à une réduction drastique des flux de chaleur sur les CFP en transférant l'essentiel de l'énergie du plasma aux photons et aux particules neutres, et par ailleurs mitigeait – voire supprimait – des instabilités magnétohydrodynamiques (MHD) de bord particulièrement délétères, les ELMs (edge localised modes). Les mécanismes gouvernant ces mitigation et suppression restent très mal compris. En outre, le XPR peut s'avérer lui-même instable et conduire à une disruption, la perte brutale du confinement du plasma suite au déclenchement d'instabilités MHD globales.
L'objectif de cette thèse est double : (i) comprendre la physique à l'œuvre dans l'interaction XPR-ELMs, et (ii) optimiser l'accès et la stabilité du régime XPR. Pour ce faire, l'étudiant.e utilisera le code à 3-dimensions de MHD non-linéaire JOREK, la référence Européenne dans le domaine. Il s'agira notamment de préciser les limites du domaine opérationnel stable du XPR avec des ELMs faibles ou absents, et d'identifier les actuateurs principaux (quantité et espèces d’impuretés injectées, géométrie du plasma). Une participation aux campagnes expérimentales du tokamak WEST opéré au CEA de Cadarache – et de MAST-U opéré par l'UKAEA – est également envisagée pour confronter les résultats et prédictions des simulations aux mesures expérimentales.

Modélisation de la réponse instrumentale des télescopes spatiaux avec un modèle optique différentiable

Contexte

L'effet de lentille gravitationnelle faible [1] est une sonde puissante de la structure à grande échelle de notre univers. Les cosmologistes utilisent l'effet de lentille faible pour étudier la nature de la matière noire et sa distribution spatiale. Les missions d'observation de l'effet de lentille faible nécessitent des mesures très précises de la forme des images de galaxies. La réponse instrumentale du télescope, appelée fonction d'étalement du point (PSF), produit une déformation des images observées. Cette déformation peut être confondue avec les effets d'un faible effet de lentille sur les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique lors de la recherche sur les faibles effets de lentille. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de faible lentille [2]. Le champ de la PSF peut être interprété comme un noyau convolutionnel qui affecte chacune de nos observations d'intérêt, qui varie spatialement, spectralement et temporellement. Le modèle de la PSF doit être capable de gérer chacune de ces variations. Nous utilisons des étoiles spécifiques considérées comme des sources ponctuelles dans le champ de vision pour contraindre notre modèle PSF. Ces étoiles, qui sont des objets non résolus, nous fournissent des échantillons dégradés du champ de la PSF. Les observations subissent différentes dégradations en fonction des propriétés du télescope. Ces dégradations comprennent le sous-échantillonnage, l'intégration sur la bande passante de l'instrument et le bruit additif. Nous construisons finalement le modèle de la PSF en utilisant ces observations dégradées et utilisons ensuite le modèle pour déduire la PSF à la position des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Voir [3] pour un article récent sur la modélisation de la PSF.

La mission Euclid récemment lancée représente l'un des défis les plus complexes pour la modélisation de la PSF. En raison de la très large bande passante de l'imageur visible (VIS) d'Euclid, allant de 550 nm à 900 nm, les modèles de PSF doivent capturer non seulement les variations spatiales du champ de PSF, mais aussi ses variations chromatiques. Chaque observation d'étoile est intégrée avec la distribution d'énergie spectrale (SED) de l'objet sur l'ensemble de la bande passante du VIS. Comme les observations sont sous-échantillonnées, une étape de super-résolution est également nécessaire. Un modèle récent appelé WaveDiff [4] a été proposé pour résoudre le problème de modélisation de la PSF pour Euclid et est basé sur un modèle optique différentiable. WaveDiff a atteint des performances de pointe et est en train d'être testé avec des observations récentes de la mission Euclid.

Le télescope spatial James Webb (JWST) a été lancé récemment et produit des observations exceptionnelles. La collaboration COSMOS-Web [5] est un programme à grand champ du JWST qui cartographie un champ contigu de 0,6 deg2. Les observations de COSMOS-Web sont disponibles et offrent une occasion unique de tester et de développer un modèle précis de PSF pour le JWST. Dans ce contexte, plusieurs cas scientifiques, en plus des études de lentille gravitationnelle faible, peuvent grandement bénéficier d'un modèle PSF précis. Par exemple, l'effet de lentille gravitationnel fort [6], où la PSF joue un rôle crucial dans la reconstruction, et l'imagerie des exoplanètes [7], où les speckles de la PSF peuvent imiter l'apparence des exoplanètes, donc la soustraction d'un modèle de PSF exact et précis est essentielle pour améliorer l'imagerie et la détection des exoplanètes.

Projet de doctorat

Le candidat visera à développer des modèles PSF plus précis et plus performants pour les télescopes spatiaux en exploitant un cadre optique différentiable et concentrera ses efforts sur Euclid et le JWST.

Le modèle WaveDiff est basé sur l'espace du front d'onde et ne prend pas en compte les effets au niveau du pixel ou du détecteur. Ces erreurs au niveau des pixels ne peuvent pas être modélisées avec précision dans le front d'onde car elles se produisent naturellement directement sur les détecteurs et ne sont pas liées aux aberrations optiques du télescope. Par conséquent, dans un premier temps, nous étendrons l'approche de modélisation de la PSF en tenant compte de l'effet au niveau du détecteur en combinant une approche paramétrique et une approche basée sur les données (apprises). Nous exploiterons les capacités de différenciation automatique des cadres d'apprentissage automatique (par exemple TensorFlow, Pytorch, JAX) du modèle WaveDiff PSF pour atteindre l'objectif.

Dans une deuxième direction, nous envisagerons l'estimation conjointe du champ de la PSF et des densités d'énergie spectrale (SED) stellaires en exploitant des expositions répétées ou des dithers. L'objectif est d'améliorer et de calibrer l'estimation originale de la SED en exploitant les informations de modélisation de la PSF. Nous nous appuierons sur notre modèle PSF, et les observations répétées du même objet changeront l'image de l'étoile (puisqu'elle est imagée sur différentes positions du plan focal) mais partageront les mêmes SED.

Une autre direction sera d'étendre WaveDiff à des observatoires astronomiques plus généraux comme le JWST avec des champs de vision plus petits. Nous devrons contraindre le modèle de PSF avec des observations de plusieurs bandes pour construire un modèle de PSF unique contraint par plus d'informations. L'objectif est de développer le prochain modèle de PSF pour le JWST qui soit disponible pour une utilisation généralisée, que nous validerons avec les données réelles disponibles du programme COSMOS-Web JWST.

La direction suivante sera d'étendre les performances de WaveDiff en incluant un champ continu sous la forme d'une représentation neuronale implicite [8], ou de champs neuronaux (NeRF) [9], pour traiter les variations spatiales de la PSF dans l'espace du front d'onde avec un modèle plus puissant et plus flexible.

Enfin, tout au long de son doctorat, le candidat collaborera à l'effort de modélisation de la PSF par les données d'Euclid, qui consiste à appliquer WaveDiff aux données réelles d'Euclid, et à la collaboration COSMOS-Web pour exploiter les observations du JWST.

Références

[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. I. Liaudat et al. “Multi-CCD modelling of the point spread function”. In: A&A 646 (2021), A27. doi:10.1051/0004-6361/202039584.
[3] T. I. Liaudat, J.-L. Starck, and M. Kilbinger. “Point spread function modelling for astronomical telescopes: a review focused on weak gravitational lensing studies”. In: Frontiers in Astronomy and Space Sciences 10 (2023). doi: 10.3389/fspas.2023.1158213.
[4] T. I. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Rethinking data-driven point spread function modeling with a differentiable optical model”. In: Inverse Problems 39.3 (Feb. 2023), p. 035008. doi:10.1088/1361-6420/acb664.
[5] C. M. Casey et al. “COSMOS-Web: An Overview of the JWST Cosmic Origins Survey”. In: The Astrophysical Journal 954.1 (Aug. 2023), p. 31. doi: 10.3847/1538-4357/acc2bc.
[6] A. Acebron et al. “The Next Step in Galaxy Cluster Strong Lensing: Modeling the Surface Brightness of Multiply Imaged Sources”. In: ApJ 976.1, 110 (Nov. 2024), p. 110. doi: 10.3847/1538-4357/ad8343. arXiv: 2410.01883 [astro-ph.GA].
[7] B. Y. Feng et al. “Exoplanet Imaging via Differentiable Rendering”. In: IEEE Transactions on Computational Imaging 11 (2025), pp. 36–51. doi: 10.1109/TCI.2025.3525971.
[8] Y. Xie et al. “Neural Fields in Visual Computing and Beyond”. In: arXiv e-prints, arXiv:2111.11426 (Nov.2021), arXiv:2111.11426. doi: 10.48550/arXiv.2111.11426. arXiv: 2111.11426 [cs.CV].
[9] B. Mildenhall et al. “NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis”. In: arXiv e-prints, arXiv:2003.08934 (Mar. 2020), arXiv:2003.08934. doi: 10.48550/arXiv.2003.08934. arXiv:2003.08934 [cs.CV].

Développement et validation d’algorithmes d’intelligence artificielle, appliqués à l’haptique surfacique, pour l’évaluation des troubles neurodéveloppementaux à travers le toucher et la dextérité

L'objectif de cette thèse est de développer de nouvelles méthodes d'évaluation clinique utilisant des technologies haptique surfaciques, développées au CEA List, et des algorithmes de machine learning pour tester et mesurer l'intégration tactile-motrice. En particulier, la thèse investiguera et validera le développement d'un pipeline d'analyse multimodale qui convertit les signaux haptique et les données des exercices de dextérité (c'est-à-dire les événements de stimulation tactile, la cinématique des doigts, les forces de contact et le timing en millisecondes) en biomarqueurs fiables et interprétables de la perception tactile et du couplage sensorimoteur, puis classera les schémas d'intégration normatifs par rapport aux schémas atypiques avec une fidélité clinique pour l'évaluation.
Résultats attendus : une nouvelle technologie et des modèles pour la mesure rapide et réalisable des déficits tactuo-moteurs en milieu clinique, avec une validation initiale pour différents troubles du neurodéveloppement (c'est-à-dire la psychose, le trouble du spectre autistique et la dyspraxie). Les méthodes développées et les données collectées fourniront :
(1) une bibliothèque de caractéristiques ouverte et versionnée pour l'évaluation tactuo-motrice ;
(2) des classifieurs avec des points de fonctionnement prédéfinis (sensibilité/spécificité) ;
(3) et une pipeline « edge-ready » sur le dispositif, c'est-à-dire capable de fonctionner localement sur une tablette tout en respectant les contraintes de latence, de calcul et de confidentialité des données. Le succès sera mesuré par la reproductibilité des caractéristiques, des tailles d'effet cliniquement significatives et une logique de décision interprétable qui se rapporte à la neurophysiologie connue plutôt qu'à des artefacts.

Top