Simulation des phénomènes d’interaction entre ondes ultrasonores et microstructure métalliques pour l’imagerie et la caractérisation

L’interaction des ondes avec la matière dépend fortement de la fréquence de ces ondes et de l’échelle de leurs longueurs d’onde au regard des propriétés du milieu considéré. Dans le cadre des applications d’imagerie ultrasonore qui nous importent, les échelles considérées pour les métaux sont généralement de l’ordre du millimètre (du dixième à plusieurs dizaines de millimètres). Or, selon les procédés de fabrication utilisés, les milieux métalliques qui sont souvent anisotropes peuvent également présenter une microstructure dont les hétérogénéités ont des dimensions caractéristiques du même ordre. Ainsi, les ondes ultrasonores se propageant à travers des métaux peuvent, dans certaines circonstances, être fortement affectées par les microstructures de ces derniers. Cela peut représenter une gêne pour certaines techniques ultrasonore (atténuation, bruit de structure) ou, au contraire, une opportunité pour estimer des propriétés locales du métal inspecté.
L’objectif général de la thèse proposée vise à approfondir la compréhension du lien entre microstructure et comportement des ondes ultrasonores pour de grandes classes de matériau en bénéficiant des savoirs combinés du LEM3 pour la génération de microstructure virtuelle et du CEA pour la simulation de la propagation d’ondes ultrasonores.
Le travail proposé combinera l’acquisition et l’analyse de données expérimentales (matériau et ultrasons), l’utilisation d’outils de simulation, et le traitement statistique de données. Cela permettra une analyse les comportements selon les classes de matériaux, voire la mise en place de procédures d’inversion permettant de caractériser une microstructure à partir d’un jeu de données ultrasonores. La combinaison de ces méthodes permettra une approche holistique contribuant à des avancées significatives dans le domaine.

Expériences virtuelles de diffusion neutronique de la modération à la détection des neutrons.

La communauté française de diffusion neutronique propose de construire une nouvelle source de diffusion neutronique de type HiCANS, High-Current Accelerator-driven Neutron Source. Une telle source utiliserait un accélérateur de proton de basse énergie, quelques dizaines de MeV, pour produire des neutrons thermiques et froids et alimenter une suite instrumentale d’une dizaine de spectromètres. L’objectif du projet de thèse est de construire une description multi-échelle du fonctionnement d’un appareil de diffusion neutronique allant de la description des processus microscopiques de modération des neutrons et des interactions des neutrons avec la structure atomique et la dynamique des échantillons en passant par la propagation des neutrons à travers des éléments optiques avancés et la production de particules secondaires créant du bruit de fond. L’objectif final et de pouvoir réaliser des expériences de diffusion neutroniques virtuelles et de prédire de manière aussi fine que possible les performances des instruments sur la future source ICONE.

Élaboration d'un modèle numérique de l’irradiateur POSEIDON pour sa qualification en radiostérilisation au Co-60

Le CEA/Saclay dispose d’irradiateurs gamma au 60Co dédiés à la réalisation de prestations d’irradiation à façon, d’une part, pour le CEA dans le cadre de ses propres études de R&D, et d’autre part, pour les industriels des secteurs de l’électronucléaire, de la défense, de l’électronique, du spatial et de la santé.

Dans le domaine plus particulier de la santé, un irradiateur est employé pour radiostériliser, i.e. inactiver les contaminants microbiologiques (comme les bactéries, virus, microbes, spores) par rayonnements ionisants, de dispositifs médicaux tels que des prothèses de hanche, des vis ou plaques orthopédiques, pour le compte de leurs fournisseurs. Le grand intérêt de la stérilisation par rayonnements gamma, comparativement aux autres alternatives de stérilisation (au gaz ou à froid par immersion dans des produits chimiques liquides), est que les dispositifs médicaux n’ont pas à être extraits de leur carton et/ou de leur sachet étanche ; ils sont traités directement au travers de leur emballage.

La radiostérilisation de dispositifs médicaux présente un haut niveau d’exigence, en accord avec les prescriptions des normes ISO 13485 et ISO 11137. D’une part, les doses délivrées ne doivent être ni trop faibles, pour assurer la stérilité des produits, ni trop fortes, pour ne pas altérer leur intégrité. D’autre part, trois étapes de qualification sont nécessaires afin de garantir la validation des procédés de stérilisation par irradiation. Les deux premières, dites d’installation et opérationnelle, ont respectivement pour but de démontrer que l’équipement de stérilisation est installé conformément à ses spécifications et fonctionne correctement en délivrant des doses appropriées dans les limites de critères d’acceptation définis. La qualification opérationnelle consiste plus particulièrement à caractériser l’irradiateur en termes de distribution et de reproductibilité de la dose, en considérant les volumes à irradier remplis d’un matériau homogène, de masses volumiques enveloppes représentatives des produits à traiter. Enfin, la troisième étape de qualification, dite des performances, doit démontrer, spécifiquement pour les produits médicaux à traiter, que l’équipement fonctionne de façon constante, conformément aux critères prédéterminés, et délivre des doses comprises dans la plage des doses spécifiées, donnant par conséquent un produit qui satisfait à l’exigence spécifiée pour la stérilité.

De manière générale, les cartons à irradier sont, selon les fournisseurs, remplis de divers produits médicaux différents et correspondent ainsi à un large éventail de tailles et de poids. Il convient par conséquent d’examiner les effets, sur la distribution spatiale de dose, de toutes les configurations possibles de chargements des produits, y compris pour différents taux de remplissage des balancelles, contenant les cartons, du convoyeur dynamique de l’irradiateur. Enfin, il est à noter que les processus de qualifications doivent être réitérés suite à toute modification susceptible d’affecter la dose ou la distribution de dose, et donc à chaque réapprovisionnement des sources. Ces processus sont actuellement réalisés exclusivement par mesures, à l’aide d’une multitude de dosimètres pertinemment répartis au sein et en surface des emballages.

Le Laboratoire des Rayonnements Appliqués (DRMP/SPC/LABRA), en charge de l’irradiateur gamma POSEIDON dédié à la radiostérilisation de matériels médicaux au CEA/Saclay, souhaite disposer d’un outil numérique permettant de réaliser par simulations ces processus de validation. Un des intérêts majeurs attendus par l’utilisation de cet outil est de réduire considérablement les durées d’indisponibilité de l’irradiateur POSEIDON, imposées par les phases expérimentales de validation.

Le sujet de thèse proposé a pour objet la mise en œuvre d’un modèle numérique de l’irradiateur POSEIDON permettant de reproduire par simulations les phases de validation, aussi rapidement que possible, tout en assurant l’exactitude des résultats, à la précision souhaitée. Ce travail sera effectué dans le laboratoire DM2S/SERMA/CP2C (CEA/Saclay), spécialisé entres autres dans les études de radioprotection par simulations numériques, avec des échanges réguliers avec le LABRA.

Ainsi, le sujet de la thèse, découpé en trois étapes, explorera une approche de validation alternative à celle réalisée expérimentalement :

• La première étape aura pour objet le développement d’un modèle numérique de l’irradiateur POSEIDON intégrant le caractère dynamique des traitements de radiostérilisation. Ce modèle numérique reposera sur une méthodologie de calcul qui sera arrêtée au cours de la thèse (méthode Monte-Carlo ou déterministe), avec un compromis entre la qualité des résultats obtenus et la rapidité d’exécution des calculs. Pour cette étape, le code de transport des rayonnements dans la matière de type Monte-Carlo TRIPOLI-4® sera utilisé comme référence avec des comparaisons réalisées à l’aide d’autres outils numériques tels que MCNP®, PENELOPE, GEANT4, NARMER-1, etc. ;

• La deuxième étape portera successivement sur la validation du modèle numérique retenu par confrontation à des mesures expérimentales, à définir et à réaliser au cours de la thèse, et sur son application au calcul des processus de qualification opérationnelle et des performances pour différentes familles de cartons de fournisseurs. Concernant la validation des calculs, l’instrumentation utilisée pour les mesures de doses gamma sera modélisée numériquement et analysée, en considérant tous les phénomènes physiques en jeu concernant la dose absorbée (doses photons et électrons). L’objectif est de consolider les comparaisons calculs/mesures pour les expériences réalisées au cours de la thèse.

• Enfin, la dernière étape concernera l’analyse de l’apport du modèle numérique par rapport à l’approche expérimentale. Cette approche calculatoire nécessitera néanmoins d’être optimisée en termes de temps de calcul afin notamment d’en faciliter les analyses de sensibilité à réaliser.

Au cours de thèse, diverses voies de recherches seront investiguées telles que l’amélioration de la modélisation des réflexions lors du transport des photons dans un milieu fermé (casemate de l’irradiateur PAGURE ; utilisation de techniques de deep learning pour les codes déterministes), la mise en œuvre de géométries stochastiques pour modéliser le contenu des cartons, et l’amélioration des algorithmes pour réduire les durées de calcul.

États de graphe universels pour des réseaux quantiques robustes et la correction d’erreurs quantiques

Les dernières années ont vu des avancées notables dans les technologies quantiques, consolidant le développement des éléments de base pour le déploiement des futurs réseaux quantiques. De tels réseaux peuvent servir à diverses fins, notamment permettre la transmission d'états quantiques entre des parties physiquement éloignées, ou améliorer les capacités de calcul des ordinateurs quantiques en combinant plusieurs processeurs quantiques. Lorsque seules sont autorisées les opérations quantiques locales et la communication classique (LOCC), l'état quantique initialement partagé entre les parties joue un rôle clé, et peut à la fois permettre des applications spécifiques ou fournir les moyens de répondre à des questions théoriques non résolues.
Ce projet de thèse vise à explorer les états quantiques universellement k-stabilisateurs, c'est-à-dire les états quantiques à n qubits qui permettent d'induire n'importe quel état stabilisateur sur n'importe quel sous-ensemble de k qubits, en utilisant uniquement des protocoles LOCC. Les états stabilisateurs peuvent être décrits en utilisant le formalisme des états de graphe, représentant l'une des classes les plus importantes d’intrication multipartite et une ressource puissante pour de nombreux protocoles quantiques multipartites. L'objectif de la thèse est triple. Un premier objectif est de développer des méthodes déterministes pour construire des états de graphe universellement k-stabilisateurs sur un nombre de qubits n quadratique par rapport à k (limite théorique), améliorant ainsi la scalabilité et l'efficacité par rapport à l'état actuel de l'art. Un deuxième objectif est d'étudier la robustesse du protocole dérivé, pour préparer un état stabilisateur quantique désiré sur un sous-ensemble de k qubits, face aux menaces potentielles posées par des parties malveillantes ou des pertes de qubits. Enfin, le dernier objectif de la thèse est d'identifier les liens et les implications entre les états de graphe universellement k-stabilisateurs, la robustesse et la correction d'erreurs quantiques, comme moyen de concevoir de nouveaux codes quantiques d'intérêt indépendant, ou d'accroître la fiabilité des réseaux quantiques.

Reconstruction de topologie d'un réseau ramifié par réflectométrie multicapteurs

Les réseaux électriques intelligents (smart grids) visent à surveiller et contrôler des réseaux électriques alors que de nombreux facteurs évoluent, tels que : les unités de production, les unités de consommation, mais aussi le réseau lui-même, sa structure et son état d'intégrité.

Les smart grids visent à assurer la meilleure qualité de service possible tout en assurant la protection des personnes et des infrastructures. Dans ce domaine, une large part des algorithmes visent à "sortir l'humain" des boucles de rétroaction afin d'assurer une disponibilité permanente et une réactivité très élevée. C'est pourquoi de nombreux travaux visent à inclure des algorithmes d'intelligence artificielle dans la boucle décisionnelle.

Dans ce contexte, nous nous intéressons à des moyens de déterminer la topologie d'un réseau électrique. La notion de topologie de réseau inclut la détermination des longueurs des tronçons et leurs caractéristiques, tout comme les caractéristiques des charges connectées au réseau (unités de productions et de consommation), mais aussi d'éventuels défauts dans le réseau. La détermination précise d'une topologie peut éventuellement être exploitée par la suite pour mieux monitorer le réseau en disposant d'informations a priori plus détaillées.

Pour caractériser la topologie, nous proposons d'exploiter un système ponctuel ou distribué de réflectomètres électriques. Ces dispositifs génèrent des signaux dans le réseau sous test et l'étude des réflexions de ces signaux donne des informations pour révéler la structure du réseau, sachant que toute discontinuité d'impédance va créer des réflexions partielles des ondes injectées.

De précédents travaux ont été menés au sein de nos équipes pour la reconstruction de topologie à l'aide de réflectomètre, en utilisant des algorithmes d'optimisation couplés à un simulateur. Nous souhaitons étendre ces travaux d'une part en explorant une approche par régresseur et apprentissage automatique, en monocapteur, et d'autre part en effectuant un analyse multicapteurs soit au moyen des algorithmes d'optimisation déjà existants, soit au moyen des nouveaux algorithmes de régression automatisés.

Traitement du signal en cybersécurité : développement d’outils fréquentiels pour les attaques par observation et application à la biométrie vocale

La cryptographie embarquée sur les cartes à puce peut être vulnérable à des attaques par observation, basées sur l’interprétation des informations récupérées pendant l’exécution de l’algorithme. Cette fuite d’information est en général mesurée au niveau matériel sous la forme d’un signal de consommation de courant ou de rayonnement électromagnétique. Actuellement les méthodes pour exploiter ces signaux et retrouver des éléments secrets reposent essentiellement sur des outils statistiques.
Cependant l’information utilisée est partielle, car ces techniques exploitent principalement le signal dans l’espace temporel. Les signaux (appelés « traces » dans le cadre des attaques par observation) étant de plus en plus complexes, bruités et désynchronisés, et également très variables d’un composant à l’autre, l’application de méthodes de traitement de signal, en particulier d’une analyse temps/fréquence, permet d’obtenir des informations complémentaires provenant de l’espace fréquentiel. L’utilisation de ces informations peut conduire à une amélioration des attaques. L’état de l’art présente plusieurs méthodes autour des attaques par observation dans le domaine fréquentiel, mais elles sont actuellement peu exploitées.
Dans un premier temps, le doctorant pourra utiliser les traces et les outils existants pour se familiariser avec les attaques par observation. Il pourra ensuite s’appuyer sur la littérature existante autour des attaques en fréquentiel, en particulier sur les travaux de G. Destouet [1-2-3] qui explorent des nouvelles techniques de filtrage, compression, mais aussi détection de motifs dans le but d’une resynchronisation optimale, ou encore pour le découpage des traces dans le cadre d’attaques dites « horizontales ».
Ces travaux seront analysés et approfondis, le doctorant pourra explorer de nouvelles techniques, par exemple de nouvelles bases d’ondelettes, et testera ses algorithmes sur des bases de signaux adaptées.
Par ailleurs, des méthodes de « machine learning » appliquées aux attaques par observation sont actuellement à l'étude, et l’apport des données fréquentielles est également une piste d’amélioration lors de l’utilisation des réseaux de neurones. Le doctorant pourra s’appuyer sur les différentes méthodes déjà existantes en temporel et les élargir grâce aux transformées en ondelettes, afin d’améliorer l’apprentissage.
Ces différentes méthodes sont applicables à l’analyse des signaux en biométrie vocale. Le doctorant pourra, entre autres, étudier des réseaux de neurones utilisant les données fréquentielles, adaptés aux signaux audio obtenus en biométrie, ceci grâce aux ondelettes ou à l’analyse dite « cepstrale ».

La thèse aura lieu au CEA-Leti à Grenoble au sein d'un laboratoire de référence dans l'évaluation des dispositifs à haute sécurité (http://www.leti-cea.fr/cea-tech/leti/Pages/innovation-industrielle/innover-avec-le-Leti/CESTI.aspx).

[1] Gabriel Destouet Ondelettes pour le traitement des signaux compromettants. (Wavelets for side-channel analysis) https://theses.hal.science/tel-03758771
[2] Gabriel Destouet et al. Wavelet Scattering Transform and Ensemble Methods for Side-Channel Analysis". In : Constructive Side-Channel Analysis and Secure Design. Sous la dir. de Guido Marco Bertoni et Francesco Regazzoni. T. 12244. Series Title : Lecture Notes in Computer Science. Cham : Springer International Publishing, 2021, p. 71-89. isbn : 978-3-030-68772-4 978-3-030-68773-1. doi : 10 . 1007 / 978 - 3 - 030 -68773-1_4.

[3] Gabriel Destouet et al. Generalized Morse Wavelet Frame Estimation Applied to Side-Channel Analysis. ICFSP 2021: 52-57

Analyse, compensation et contrôle du dépointage pour des sytèmes de communications large-bande opérant dans les bandes millimétriques et sub-Thz

La demande croissante de connectivité pousse les systèmes de communication à se complexifier, se densifier et à devenir de plus en plus gourmands en énergie. Se pose alors le problème d'accompagner ce besoin de super-connectivité tout en limitant l'impact énergétique des systèmes de communication.

Pour répondre à cet enjeu majeur, la montée en fréquence dans les bandes millimétriques et supérieures couplée à une architecture MIMO hybride (analogique et numérique) est un axe de recherche qui s’est démarqué ces dernières années. Cependant, avec la montée en fréquence des systèmes de communication, des phénomènes de dépointage des faisceaux (« beam squint » en anglais) apparaissent ce qui nuit aux performances des systèmes. C’est un sujet d’actualité avec un nombre croissant de publications scientifiques chaque année et des discussions dans les comités de normalisation.

L’objectif de l’étude est donc dans un premier temps de modéliser les effets de dépointage et de proposer des techniques de compensation. Dans un deuxième temps, le sujet investiguera les techniques de contrôle du dépointage à des fins de suivi et détection. C’est une étude située à la frontière entre la conception d‘antennes et le traitement numérique du signal. Les systèmes d’antennes innovants proposés par la littérature seront considérés pour l’étude qui restera plutôt axée traitement du signal.

Sur le site de Grenoble (France), vous intégrerez une équipe Telecom dynamique dont les activités et compétences couvrent aussi bien les études de propagation, les conceptions des circuits RF et réseaux d’antenne et l’optimisation des modems et techniques associées. L’étude est entièrement financée par « France 2030 » et le programme de recherche « PEPR-Réseaux du futur ». Cela offre au doctorant un cadre propice à l’échange et au partage des résultats auprès de nombreux acteurs français du domaine. L’offre est à pouvoir pour l’automne 2024.

Méthodes de caractérisation pour les cibles de fusion par confinement inertiel du Laser Mégajoule

Une des voies pour la fusion par confinement inertiel avec le Laser MégaJoule nécessite la mise en forme d’une couche sphérique de deutérium-tritium solide à température cryogénique. Une problématique est la caractérisation l’épaisseur de solide qui constitue une donnée primordiale pour l’expérience. Cette caractérisation sera réalisée de deux manières différentes : par ombroscopie optique et par rayons X par contraste de phase. Un procédé cryogénique (cryostat) fonctionnant à environ 20 kelvins, mis au point au CEA, permet d'ores et déjà de développer les futures cibles cryogéniques du LMJ et les moyens de caractérisation associés.
Les objectifs de la thèse sont la compréhension et la modélisation théorique et numérique des phénomènes physiques, la mise au point d'un banc de caractérisation adapté autour du cryostat et le traitement des signaux et des images pour la description tri-dimensionnelle de la couche de DT.
L’étudiant devra dans un premier temps s’approprier le fonctionnement du cryostat, de son système de commande et de son système de caractérisation sommaire actuel. Après une phase d'étude bibliographique, il devra étudier théoriquement et numériquement les phénomènes physiques en oeuvre afin de concevoir le système d'acquisition et un traitement d’image permettant la caractérisation tri-dimensionnelle d’une couche de DT solide à partir de clichés obtenus lors des expériences en deutérium sur le cryostat d’étude. Enfin, il pourra être demandé de coupler la commande et la caractérisation dans l’optique de l’optimisation du procédé. Pour chacune de ces problématiques, l'étudiant pourra s’appuyer sur des données bibliographiques, des résultats d'études passées ainsi que sur le savoir-faire des équipes du laboratoire d’accueil.
Conformément aux engagements pris par le CEA en faveur de l'intégration des personnes en situation de handicap, cet emploi est ouvert à tous et toutes.

Algorithmes de couplages multiphysiques pour solveurs en boite noire dans un environnement HPC

Ce sujet est proposé dans le cadre du programme et équipements prioritaires de recherche (PEPR) NumPEx (Numérique Pour l’Exascale). Il est intégré dans le Projet Ciblé Exa-MA (Méthodes et Algorithmes pour l’Exascale) et est proposé par des chercheurs du CEA (Institut IRESNE-Centre de Cadarache) et de l’Inria (Bordeaux). Il s’inscrit dans un workpackage dédié aux méthodes de discrétisation et vise à la construction de méthodes numériques efficaces pour la résolution de problèmes multiphysiques, c’est-à-dire des problèmes dans lesquels différentes physiques interagissent.
La simulation numérique de phénomèmes impliquant différentes physiques peut se faire en adoptant une approche monolithique ou partitionnée.
L’approche monolithique consiste à représenter les différentes physiques via la résolution d’un unique système matriciel contenant toutes les inconnues. Ce système est souvent mal conditionné et nécessite des techniques adaptées pour être résolu. Par ailleurs, il est aussi important de noter que le système algébrique à résoudre est souvent de grande taille, pouvant atteindre, voire dépasser, les capacités maximales des solveurs actuels.
L’approche partitionnée consiste à s’appuyer sur des solveurs efficaces déjà développés et adaptés à chacune des physiques considérée séparément. La difficulté réside alors dans le couplage de ces différents solveurs pour obtenir la solution multiphysique.
L’objet de ce sujet de thèse est de proposer une méthode numérique efficace et générique pour coupler différents solveurs physiques utilisés en boite noire. Il faut de plus que cette approche permette de passer à l’échelle Exascale.
La pertinence et la généricité de l’approche développée sera vérifiée sur des couplages électromagnétisme/acoustique/sismique et aussi thermo/mécanique. Par ailleurs, l’efficacité de la méthode numérique sera comparée à celle d’une approche monolithique considérée comme approche référence mais incluant des modélisations physiques souvent dégradées. Des validations expérimentales seront également possibles.

Solveur Intégrodifférentiel HPC Parallèle pour la Dynamique des Dislocations

Contexte : La compréhension du comportement des métaux à forts taux de déformation [4] (entre 104 et 108 s-1) représente un défi scientifique et technologique considérable. Cette déformation irréversible (plastique) est due à la présence de défauts linéaires d'alignement cristallin : les dislocations, qui interagissent via le champ élastique à longue portée et par interactions de contact.
Actuellement, le comportement des métaux à forts taux de déformation ne sont accessibles expérimentalement que par chocs laser. D’où la nécessité d’un outil de simulation. Deux grands types d’approches sont possibles : la dynamique moléculaire, et les simulations élastodynamiques. Cette thèse s’inscrit dans le second type d’approche, capitalisant sur nos travaux récents [1, 2] qui ont permis les premières simulations numériques de l’équation de Peierls-Nabarro Dynamique (PND) [5]. Celle-ci décrit des phénomènes intervenant à l’échelle de la dislocation.
PND est une équation intégrodifférentielle non-linéaire qui présente une double difficulté : la non-localité en temps et en espace des opérateurs. Nous l’avons simulée pour la première fois grâce à une stratégie numérique efficace [1], issue de [6]. Mais la nature mono-processeur de son implantation actuelle constitue un verrou, limitant fortement la taille du système et l’étude de son comportement en temps long.

Sujet de thèse : Les objectifs de cette thèse sont de deux natures :
- Numérique. Sur la base algorithmique développée dans [1], implémenter un solveur HPC (Calcul Haute Performance) parallélisé en espace et en temps, avec mémoire distribuée.
- Physique. Grâce au code développé, éclaircir des points cruciaux relatifs à la phénoménologie des dislocations en régime dynamique rapide. L’exploitation des résultats numériques requerra des techniques de traitement de données et de statistiques - potentiellement assistées par de l’IA.
En fonction de l’avancement, il sera possible d’appliquer la méthode numérique développée aux phénomènes de fissuration dynamique [3].

Profil du candidat : Le sujet de thèse proposé est pluridisciplinaire, à la croisée des chemins entre simulation numérique, physique des dislocations et de la propagation de fissures, et traitement statistique. Le candidat devra d’abord posséder une solide formation en calcul scientifique appliqué aux équations aux dérivées partielles et un gout prononcé pour les applications physiques. La maîtrise du C++, avec des compétences en OpenMP et MPI seraient fortement appréciées. Des connaissances en mécanique des milieux continus seraient aussi vu comme un plus.
La thèse se déroulera au CEA/DES/IRESNE/DEC à Cadarache, avec des déplacements réguliers en région parisienne pour la collaboration avec le CEA/DAM et le CEA/DRF.

[1] Pellegrini, Josien, Shock-driven motion and self-organization of dislocations in the dynamical Peierls model, soumis.
[2] Josien, Etude mathématique et numérique de quelques modèles multi-échelles issus de la mécanique des matériaux. Thèse. (2018).
[3] Geubelle, Rice. J. of the Mech. and Phys. of Sol., 43(11), 1791-1824. (1995).
[4] Remington et coll., Metall. Mat. Trans. A 35, 2587 (2004).
[5] Pellegrini, Phys. Rev. B, 81, 2, 024101, (2010).
[6] Lubich & Schädle. SIAM J. on Sci. Comp. 24(1), 161-182. (2002).

Top