Alimentation stochastique à partir de dispositifs émergents

Contexte:
L’utilisation massive d’appareils connectés traitant d’informations sensibles requiert le développement de nouveaux systèmes de protection. L’attaque la plus courante, dite à canal latéral de puissance, consiste à récupérer des informations relatives aux clés de chiffrement en analysant la consommation du système à alimenter. La co-intégration du système avec son alimentation permettrait de masquer la consommation des blocs sensibles, notamment en mettant en œuvre différentes techniques pour introduire des variations aléatoires pendant le transfert de puissance. Le CEA a une compétence reconnue en conception et en test de circuits intégrés sécurisés et il souhaite explorer une nouvelle approche de conversion DC-DC qui décorrèle la consommation de façon plus efficace grâce à l’utilisation de dispositifs émergents disponibles au CEA-Léti.
Le travail du doctorant sera le suivant :
- La spécification des blocs d'alimentation intégrées en utilisant l'architecture de capacité commutée.
- Etudier le circuit en utilisant des composants émergés et évaluer l'amélioration de sa robustesse contre les attaques par canal latéral.
- La conception microélectronique de l'alimentation intégrée en technologie silicium.
- La caractérisation en performance et en sécurité des blocs conçus et des primitives de sécurité dans
leur ensemble.
La répartition du travail est 10% d'étude de pointe, 20% d'architecture de système, 50% de conception de circuit, 20% de mesure expérimental.

Modélisation physique d’une attaque laser sur FD-SOI en vue de la sécurisation des cellules standard du nœud FD-SOI 10 nm

La cybersécurité de nos infrastructures est un maillon essentiel à la transition numérique qui s’opère et la sécurité doit être assurée sur l’ensemble de la chaîne. Les couches basses, matérielles, s’appuient sur du composants microélectroniques assurant les fonctions essentielles pour l’intégrité, la confidentialité et la disponibilité des informations traitées.
Le matériel assurant des fonctions de sécurité peut être soumis à des attaques physiques, utilisant les propriétés du matériel. Certaines de ces attaques sont plus directement liées que d’autres aux caractéristiques physiques des technologies silicium utilisées pour la fabrication des composants. Parmi celles-ci, les attaques utilisant un laser impulsionnel dans l’infra rouge proche est la plus puissante par sa précision et sa répétabilité. Il convient donc de protéger les composants vis-à-vis de cette menace. En sécurité, le développement des protections (on parle aussi de contremesures) est possible quand la menace est modélisée. Si l’effet d’un tir laser dans les technologies bulk traditionnelles est bien modélisé, il ne l’est pas encore suffisamment dans les technologies FD-SOI (une seule publication). Nous savons aujourd’hui que le FD-SOI a une sensibilité moindre à un tir laser, et cela doit s’expliquer par un modèle physique sensiblement différent de celui effectif sur bulk. Or les systèmes embarqués susceptibles d’être visés par des attaques malveillantes (contexte IoT, Bancaire, Idendité etc…) sont aujourd’hui portés sur les technologies FD-SOI. Il devient donc essentiel de consolider la modélisation physique de l’effet d’un tir laser sur un transistor et sur des cellules standard (standard cells : inverseur, NAND, NOR, Flip-Flop, SRAM…). Nous proposons d’allier l’expérimental à une approche TCAD permettant une compréhension fine des effets mis en jeu lors d’un tir laser impulsionnel dans le FD-SOI. Un modèle compact d’un transistor FD-SOI sous impulsion laser sera déduit de cette phase de modélisation physique.
Ce modèle compact sera ensuite injecté dans un design de cellules standards. Cette approche a deux objectifs : porter la modélisation de l’effet d’un tir laser au niveau de design de cellules standards (absolument centrales dans les circuits numériques pour la sécurité). Des données expérimentales (existantes et générées par le doctorant) permettront de valider le modèle à ce niveau d’abstraction. Enfin, et surtout, cette modélisation fine permettra de proposer des designs de cellules standards en technologie FD-SOI 10nm, intrinsèquement sécurisées vis-à-vis d’un tir laser impulsionnel. Cela sera rendu possible par l’exploitation des propriétés de sécurité des technologies FD-SOI.

Contacts: romain.wacquez@cea.fr, jean-frederic.christmann@cea.fr, sebastien.martinie@cea.fr,

Implémentation sécurisée matérielle/logicielle de la cryptographie post-quantique sur des plateformes RISC-V

Les algorithmes de cryptographie à clé publique traditionnels seront considérés comme obsolètes lorsqu'un ordinateur quantique à grande échelle sera réalisé avec succès. En conséquence, le National Institute of Standards and Technology (NIST) aux États-Unis a lancé une initiative pour développer et standardiser de nouveaux algorithmes de cryptographie post-quantique (PQC), dans le but de remplacer les mécanismes de clé publique actuels. Cependant, l'adoption des algorithmes PQC dans l'Internet des objets (IoT) et les systèmes embarqués pose plusieurs défis d'implémentation, notamment la dégradation des performances et les préoccupations de sécurité découlant de la susceptibilité potentielle aux attaques physiques par canaux auxiliaires (SCA).
L'idée de ce projet de doctorat est d'explorer la modularité, l'extensibilité et l’adaptabilité de l'ISA open source RISC-V dans le but de proposer des implémentations innovantes, sécurisées et efficaces logiciel/matériel des algorithmes PQC. L'un des principaux défis liés à l'exécution des algorithmes PQC sur les processeurs embarqués est d'obtenir de bonnes performances (c'est-à-dire une faible latence et un haut débit) et une efficacité énergétique tout en incorporant des contre-mesures contre les SCA physiques. Dans la première phase, le candidat au doctorat examinera l'état de l'art (SoA) dans le but de comprendre les faiblesses et les points d'attaque des algorithmes PQC, l'efficacité et les surcoûts des contre-mesures SoA, et les stratégies d'accélération SoA. Dans la deuxième phase, le candidat mettra en œuvre de nouvelles solutions en exploitant tous les degrés de liberté offerts par l'architecture RISC-V et caractérisera les résultats obtenus en termes de surcoût de surface, de temps d'exécution et de résistance aux SCA.
Au-delà des passionnants défis scientifiques, ce doctorat se déroulera à Grenoble, une ville pittoresque nichée dans les Alpes françaises. La recherche sera menée au CEA, dans les instituts LETI et LIST, et en collaboration avec le laboratoire TIMA

Cas d'Assurance Dynamiques pour les Systèmes Autonomes Adaptatifs

Donner l'assurance que les systèmes autonomes fonctionneront de manière sûre et sécurisée est une condition préalable à leur déploiement dans des domaines d'application critiques en termes de mission et de sécurité. Généralement, les assurances sont fournies sous la forme de cas d'assurance, qui sont des arguments vérifiables et raisonnés démontrant qu'une revendication de haut niveau (concernant généralement la sécurité ou d'autres propriétés critiques) est satisfaite compte tenu d'un ensemble de preuves relatives au contexte, à la conception et à la mise en œuvre d'un système. L'élaboration de cas d'assurance est traditionnellement une activité analytique, réalisée hors ligne avant le déploiement du système, et sa validité repose sur des hypothèses/prédictions concernant le comportement du système (y compris ses interactions avec son environnement). Cependant, il a été avancé que cette approche n'est pas viable pour les systèmes autonomes qui apprennent et s'adaptent en cours de fonctionnement. Cette thèse abordera les limites des approches d'assurance existantes en proposant une nouvelle catégorie de techniques d'assurance de la sécurité fondées sur la sécurité qui évaluent et font évoluer en permanence le raisonnement de sécurité, en même temps que le système, afin de fournir une assurance de la sécurité tout au long de son cycle de vie. En d'autres termes, l'assurance de la sécurité sera fournie non seulement au cours du développement et du déploiement initiaux, mais aussi en cours d'exécution, sur la base de données opérationnelles.

Sécurité des angles morts du Machine Learning: modéliser et sécuriser le cycle de vie des systèmes complexes d'IA

Dans le contexte actuel de régulation de l'Intelligence Artificielle, plusieurs recommandations ont été proposées pour renforcer la "cyber-sécurité de l'IA" et plus particulièrement pour améliorer la sécurité des systèmes basés sur l'IA et pas uniquement les "modèles". Cette sécurité au niveau "système" est primordiale alors que nous connaissons un déploiement des modèles à très large échelle sur une grande variété de plateformes logicielles et matérielles. Néanmoins, considérer la sécurité du cycle de vie d'un système d'IA est beaucoup plus complexe que dans le cadre classique mais limité du "ML pipeline" traditionnel composé d'une phase statique d'apprentissage puis d'inférence.

Dans ce contexte, la communauté de la sécurité de l'IA doit se concentrer sur des opérations critiques mais trop faiblement étudiées qui sont de réels "angles morts" (blind spots) de sécurité. Cet objectif repose sur une modélisation fine de l'ensemble des composants et processus d'un système d'IA, par exemple avec un modèle de type MLOps (Machine Learning Operations) qui permet de définir et caractériser les différentes étapes, modules et interactions d'un système d'IA, notamment sa dynamique avec les mises à jour régulières des données et des modèles.

La thèse pourra se concentrer sur deux angles morts : le déploiement de modèles et la dynamique du "Continuous Training". Des travaux récents ont démontré des problèmes de sécurité critiques liés à des attaques backdoor de modèle (empoisonnement) après l'apprentissage par le remplacement de sous réseau d'un réseau de neurones profond. D'autres travaux ont montré que les phases de compression de modèles (quantification, pruning) pouvaient aussi être utilisées pour empoisonner un modèle. Enfin, la dynamique des systèmes d'IA avec la mise à jour régulière des données d'apprentissage et des modèles soulève de nombreuses questions quant à de possibles régressions de leur sécurité et la robustesse des modèles lors d'ajout de données ou d'opérations de "fine-tuning".

Les objectifs de la thèse seront:
1. modéliser la sécurité de systèmes modernes d'IA en utilisant un Framework MLOps et proposer des modèles de menaces et des analyses de risques pour des opérations critiques comme le déploiement de modèle et le Continuous Training.
2. démontrer et caractériser des attaques comme celles visant des méthodes d'optimisation de modèles, du fine tuning...
3. proposer et développer des protections ainsi que des protocoles d'évaluation robustes.

Analyses statiques avancées basées sur les types pour la vérification de systèmes d'exploitations

Dans des travaux récents [RTAS 2021], nous avons démontré l'intérêt d'une analyse statique guidée
par un système de types dépendants avancé pour analyses des programmes systèmes bas-niveau, allant
jusqu'à pouvoir vérifier automatiquement l'absence d'escalade de privilège dans un noyau de système
d'exploitation embarqué comme conséquence de la type-safety du code du noyau. La gestion de la
mémoire est un problème particulièrement ardu lors de l'analyse de programmes systèmes, ou plus largement,
de programmes écrits en C, et l'analyse basée sur les types fournit une solution satisfaisante à
applicabilité large (par exemple, code de gestion de structures de données [VMCAI 2022], runtime de
langage dynamique, code applicatif orienté performance, etc.)

Le but de la thèse est d'étendre le applications qui peuvent être faites de l'utilisation d'une analyse
statique basée sur les types.

[RTAS’21] No Crash, No Exploit: Automated Verification of Embedded Kernels. O. Nicole, M. Lemerre,
S. Bardin, X. Rival (Best paper)
[VMCAI’22] Lightweight Shape Analysis based on Physical Types, O. Nicole, M. Lemerre, X. Rival
[POPL’23] SSA Translation Is an Abstract Interpretation, M. Lemerre (Distinguished paper).

Traitement du signal en cybersécurité : développement d’outils fréquentiels pour les attaques par observation et application à la biométrie vocale

La cryptographie embarquée sur les cartes à puce peut être vulnérable à des attaques par observation, basées sur l’interprétation des informations récupérées pendant l’exécution de l’algorithme. Cette fuite d’information est en général mesurée au niveau matériel sous la forme d’un signal de consommation de courant ou de rayonnement électromagnétique. Actuellement les méthodes pour exploiter ces signaux et retrouver des éléments secrets reposent essentiellement sur des outils statistiques.
Cependant l’information utilisée est partielle, car ces techniques exploitent principalement le signal dans l’espace temporel. Les signaux (appelés « traces » dans le cadre des attaques par observation) étant de plus en plus complexes, bruités et désynchronisés, et également très variables d’un composant à l’autre, l’application de méthodes de traitement de signal, en particulier d’une analyse temps/fréquence, permet d’obtenir des informations complémentaires provenant de l’espace fréquentiel. L’utilisation de ces informations peut conduire à une amélioration des attaques. L’état de l’art présente plusieurs méthodes autour des attaques par observation dans le domaine fréquentiel, mais elles sont actuellement peu exploitées.
Dans un premier temps, le doctorant pourra utiliser les traces et les outils existants pour se familiariser avec les attaques par observation. Il pourra ensuite s’appuyer sur la littérature existante autour des attaques en fréquentiel, en particulier sur les travaux de G. Destouet [1-2-3] qui explorent des nouvelles techniques de filtrage, compression, mais aussi détection de motifs dans le but d’une resynchronisation optimale, ou encore pour le découpage des traces dans le cadre d’attaques dites « horizontales ».
Ces travaux seront analysés et approfondis, le doctorant pourra explorer de nouvelles techniques, par exemple de nouvelles bases d’ondelettes, et testera ses algorithmes sur des bases de signaux adaptées.
Par ailleurs, des méthodes de « machine learning » appliquées aux attaques par observation sont actuellement à l'étude, et l’apport des données fréquentielles est également une piste d’amélioration lors de l’utilisation des réseaux de neurones. Le doctorant pourra s’appuyer sur les différentes méthodes déjà existantes en temporel et les élargir grâce aux transformées en ondelettes, afin d’améliorer l’apprentissage.
Ces différentes méthodes sont applicables à l’analyse des signaux en biométrie vocale. Le doctorant pourra, entre autres, étudier des réseaux de neurones utilisant les données fréquentielles, adaptés aux signaux audio obtenus en biométrie, ceci grâce aux ondelettes ou à l’analyse dite « cepstrale ».

La thèse aura lieu au CEA-Leti à Grenoble au sein d'un laboratoire de référence dans l'évaluation des dispositifs à haute sécurité (http://www.leti-cea.fr/cea-tech/leti/Pages/innovation-industrielle/innover-avec-le-Leti/CESTI.aspx).

[1] Gabriel Destouet Ondelettes pour le traitement des signaux compromettants. (Wavelets for side-channel analysis) https://theses.hal.science/tel-03758771
[2] Gabriel Destouet et al. Wavelet Scattering Transform and Ensemble Methods for Side-Channel Analysis". In : Constructive Side-Channel Analysis and Secure Design. Sous la dir. de Guido Marco Bertoni et Francesco Regazzoni. T. 12244. Series Title : Lecture Notes in Computer Science. Cham : Springer International Publishing, 2021, p. 71-89. isbn : 978-3-030-68772-4 978-3-030-68773-1. doi : 10 . 1007 / 978 - 3 - 030 -68773-1_4.

[3] Gabriel Destouet et al. Generalized Morse Wavelet Frame Estimation Applied to Side-Channel Analysis. ICFSP 2021: 52-57

Imageur de confiance : sécurisation intégrée par signatures physiquement uniques

Notre laboratoire de 15 personnes travaille sur les capteurs d’images intelligents. Pour répondre aux besoins en innovation à très forte valeur ajoutée de nos partenaires industriels, l’équipe développe des solutions sur l’ensemble de la chaîne de l’image: de l’acquisition au traitement et à l’analyse d’images, de la conception des pixels au développement d’algorithmes d’intelligence artificielle. Les images, donc les capteurs qui les générent, doivent répondre aux défis posés par leur utilisation illicite, soit pour détourner leur contenu par deep fake, soit pour des accès non autorisés. Le concept d’imageurs de confiance répond à la nécessité d’assurer la sécurisation, authentification ou chiffrement, des images dès leur acquisition.

Basé sur nos premiers développements, votre thèse consistera à rechercher des solutions innovantes pour intégrer aux imageurs des fonctions de sécurisation. Face aux enjeux de robustesse et d’intégrabilité compact, la thèse vise à explorer l’utilisation de fonctions physiquement non-clonables au sein d’un capteur d’image. Après une montée en compétence s’appuyant notamment sur une étude bibliographique, et en fonction de votre cursus et de vos centres d’intérêt, votre travail consistera à: # Développer en Python des modèles compacts de circuits pour identifier et tester des fonctions physiquement non clonables; # Valider les structures de fonctions physiquement non clonables proposées et de leurs chiffrements associés ; # Analyser leurs robustesses ; # Concevoir et simuler les circuits intégrés correspondants à ces fonctions. Avec l’objectif d’une réalisation d’un circuit intégré, les travaux se dérouleront, au sein du CEA-Léti, avec des outils de conception de circuits intégrés et de développement logiciel.

Ingénieur ou Master 2 en électronique ou en traitement du signal (Centrale-Supélec, Télécom Paris-Tech, PHELMA) vous êtes curieux, rigoureux, désireux de travailler sur une thématique transverse. Vos compétences? Soit le traitement du signal et des images, y compris l’IA, soit l’électronique intégrée. Votre large culture scientifique permet d’aborder des domaines connexes.

Formalisation et analyse de contre-mesures contre les attaques par injection de fautes dans des processeurs open-source

Rejoignez le CEA-List au sein de la division DSCIN pour une opportunité de doctorat dans le domaine de la sécurité matérielle et de l'analyse formelle des microarchitectures de processeurs. Cette recherche se concentre sur la formalisation et l'analyse des contre-mesures contre les attaques par injection de fautes sur des processeurs open-source. Nous visons à établir des garanties formelles pour la robustesse des processeurs face aux attaques par injection de fautes.

Le défi scientifique de la thèse réside dans la création de méthodes et d'outils pouvant analyser efficacement la robustesse des systèmes embarqués sous injection de fautes. Vous travaillerez à la prise en compte conjointe du modèle RTL du processeur cible et du programme exécuté. Les techniques d'analyse actuelles, que ce soit par simulation ou par méthodes formelles, n'ont pas la capacité d'adresser la complexité des systèmes actuels. L'objectif est d'explorer des approches novatrices pour étendre l'analyse à des programmes plus vastes et à des microarchitectures de processeurs complexes. Le travail de thèse pourra s'appuyer sur les outils de simulation RTL comme Verilator ou QuestaSim, l'outil d'analyse formelle µARCHIFI développé au CEA-List, et des implémentations open-source de processeurs sécurisés comme le processeur RISC-V CV32E40S.

Votre travail ouvrira la voie à la conception de techniques et d'outils efficaces ayant le potentiel de rationaliser l'évaluation des systèmes sécurisés, impactant des domaines tels que la certification (e.g., Critères Communs), et réduisant le temps de mise sur le marché lors de la phase de conception de systèmes sécurisés en permettant par exemple la conception de systèmes sûrs à partir de l'assemblage de composants open source.

Security-by-design pour les modèles de réseaux de neurones embarqués sur plateformes RISC-V

Dans un contexte de régulation de l'Intelligence Artificielle à l'échelle européenne (AI Act), de nombreuses recommandations concernent la « cybersecurité de l’IA ». Parmi les concepts les plus importants liés à la sécurité des modèles de Machine de Learning et des systèmes basés sur l'IA, la "security-by-design" est le plus souvent associé au renforcement des modèles dès l'apprentissage (e.g., adversarial training contre les menaces par évasion ou le differential privacy pour les attaques contre la confidentialité).
Cette thèse vise à couvrir un spectre plus large du "security-by-design" en étudiant les mécanismes logiciels (SW) et électroniques (HW) que l'on peut mettre en œuvre pour renforcer la robustesse intrinsèque des systèmes d'IA embarqués sur plateformes RISC-V.
Les objectifs sont (1) de définir et modéliser les vulnérabilités SW et HW propres aux modèles embarqués, (2) développer et évaluer des protections et (3) démontrer l’impact des protections SW, HW et leurs combinaisons sur des attaques de l’état de l’art comme les "weight-based adversarial attacks", "model extraction".

Top