Conception de mémoire magnétique asynchrone non-volatile
Dans le contexte applicatif de l’internet des objets (IoT) et des systèmes CyberPhysiques, (CPS), les systèmes « Normally off » sont principalement dans un état de veille et attendent des événements déclencheurs tels que des réveils sur compte à rebours, des dépassements de seuil, des réveils électromagnétiques ou encore des variations dans leurs environnements énergétiques pour se mettre en marche. Afin de réduire leur consommation ou par manque d’énergie, le système coupe l’alimentation de la plupart de ses composants durant cette veille. Afin de conserver les informations présentes en mémoire, nous proposons de développer une mémoire non-volatile embarquée. Les technologies de stockage magnétiques sont prometteuses afin d’atteindre tant une faible consommation qu’une rapidité d’accès aux données. De plus, à cause du comportement transitoire de ces systèmes qui passent souvent de la veille à la marche et vice versa, la logique asynchrone est naturellement envisagée pour implémenter la logique numérique. Ce sujet vise ainsi la conception d’une mémoire SRAM magnétique asynchrone dans un procédé de fabrication 28nm. Le composant mémoire devrait être développé jusqu’au dessin des masques, afin d’être caractérisé en consommation et temps d’accès, et de pouvoir être intégré efficacement avec un processeur asynchrone. Repousser les limites de l’état de l’art en proposer un tel composant permettra d’envisager des avancées considérables dans le monde des systèmes autonomes.
Détection de cyber-attaques dans un capteur embarqué pour l’analyse de sols
Ce post-doc aura pour charge d’appliquer des techniques de « machine learning » pour la détection attaques sur un système de multiples capteur connectés. Le domaine applicatif concerne l’agriculture, pour lequel le CEA LETI réalise déjà plusieurs projets, dont le projet H2020 SARMENTI (Smart multi-sensor embedded and secure system for soil nutrient and gaseous emission monitoring). L’objectif de SARMENTI est de développer et valider un système multi-capteurs à basse consommation, sécurisé et connecté au « cloud, » qui permettra une analyse in situ et en temps–réel des nutriment et de la fertilité du sol afin de fournir une aide à la décision aux agriculteurs. Dans ce cadre, le post-doc aura la charge des analyses de cyber-sécurité, de déterminer les risques principaux sur ces capteurs connectés, mais également de la spécification du module de détection d’attaques. L’algorithme de détection sous-jacent sera basé sur la détection d’anomalie, par ex. « one class classifier. » Ce travail aura trois parties, l’implémentation des sondes qui analyseront des événements sélectionnés, l’infrastructure de communication entre les sondes et le détecteur, ainsi que le détecteur proprement dit.
Sécurisation énergétiquement efficace de fonctions de sécurité pour l’IoT en technologie FDSOI 28nm
La sécurité des objets connectés doit être efficace en énergie. Or, la plupart des travaux
autour de la sécurisation par la conception montrent un surcoût, d’un facteur
multiplicatif de 2 à 5, en surface, en performance, en puissance et en énergie, qui ne
satisfait pas les contraintes de l’IoT. Ces 5 dernières années les efforts de recherche
sur la sécurisation ont été guidés par la réduction de la surface silicium voire de la
puissance, ce qui n’implique pas toujours à une diminution de l’énergie, critère
prédominant dans les objets connectés autonomes. Le sujet de post-doc vise la sécurisation
vis à vis d’attaques potentielles, et l’optimisation en consommation énergétique, de
l’implémentation de fonctions de sécurité (capteurs de détection d’attaques, accélérateur
cryptographique, générateur de nombre aléatoire, etc.) en technologie FDSOI 28nm.
A partir de la sélection de briques de sécurité non sécurisées, disponibles sur FPGA, le
post-doc explorera les solutions de sécurisation à tous les niveaux du flot de conception
afin de proposer et de valider, dans un démonstrateur silicium, les contre-mesures les
plus efficaces en énergie tout en garantissant le niveau de sécurité choisi.
Solution d’accélération combinée logicielle et matérielle pour les algorithmes de recherche opérationnelle
Le but de ce post-doctorat est de préparer la prochaine génération de solveurs RO. Nous proposons donc d’étudier la possibilité de l’accélération matérielle à base de FPGA pour exécuter certains blocs ou la totalité des algorithmes de RO [4,5]. Les blocs pour lesquelles une telle solution n’est pas efficace peuvent être parallélisés et exécutés sur une plate-forme de calcul standard. L’environnement d’exécution proposé correspondra donc à une plateforme de calcul qui intégrera des FPGA. L’accès à cette plateforme nécessitera un ensemble d’outils. Ces outils doivent offrir des fonctionnalités telles que (a) l’analyse et la pré-compilation d’une entrée ou d’un problème ou sous-problème de RO par exemple, (b) le partitionnement HW / SW et l’optimisation de logique dédiée et enfin (c) la génération d’un exécutable logiciel et un bitstream.
La première étape sera donc de trouver les algorithmes de RO qui peuvent se prêtent bien à l’accélération matérielle. Une analyse et une classification des différents algorithmes de RO sont ainsi nécessaires. Nous proposerons ensuite, des méthodologies de partitionnement HW / SW pour les différentes classes d’algorithmes.
Les résultats obtenus seront implémentés pour donner lieu à un prototype de compilation qui à partir d’une instance RO va générer un exécutable logiciel et un bitstream. Ces derniers seront implémentés et exécutés sur une plateforme de calcul munie de FPGA afin d’évaluer le gain en performance et l’impacte sur la consommation énergétique de la solution que nous proposons.
Interprétation de grilles d’occupation 3D par réseaux de neurones
Ce sujet s’inscrit dans le contexte du développement des véhicules/drones/robots autonomes.
L’environnement du véhicule est représenté par une grille d’occupation 3D, dans laquelle chaque cellule contient la probabilité de présence d’un objet. Cette grille est réactualisée au fil du temps, grâce aux données capteurs (Lidar, Radar, Camera).
Les algorithmes de plus haut niveau (path planning, évitement d’obstacle, …) raisonnent sur des objets (trajectoire, vitesse, nature). Il faut donc extraire ces objets de la grille d’occupation : clustering, classification, et tracking.
De nombreux travaux abordent ces traitements dans un contexte vision, en particulier grâce au deep learning. Ils montrent par contre une très grande complexité calculatoire, et ne tirent pas parti des spécificités des grilles d’occupation (absence de textures, connaissance a priori des zones d’intérêt ...). On souhaitent trouver des techniques plus adaptées à ces particularités et plus compatibles avec une implémentation plus économe en calcul.
L’objectif du post-doc est de déterminer, à partir d’une suite de grilles d’occupation, le nombre et la nature des différents objets, leur position et vecteur vitesse, en exploitant les récentes avancées du deep Learning sur les données 3D non structurées.
Génération automatique de générateurs dynamiques de code à partir de code legacy
Contexte
========
Notre laboratoire développe une technologie pour la génération dynamique de code autour de l’outil deGoal, destiné à la conception de générateurs de code spécialisés appelés compilettes. Une compilette est embarquée dans une application afin de générer dynamiquement le code d’un kernel de calcul. Le fait de pouvoir générer dynamiquement le code d’un kernel permet de mettre en œuvre des optimisations qui sont par nature hors de portée d’un compilateur traditionnel : optimisations sur les données à traiter, et sur la connaissance du contexte d’exécution. En comparaison avec les outils de l’état de l’art (compilation dynamique, typiquement Java Just-In-Time compilation, et runtime optimizers), les compilettes ont une très faible empreinte mémoire et génèrent le code beaucoup plus rapidement.
Afin de fournir la meilleure performance d’exécution des kernels spécialisés avec des compilettes deGoal, les compilettes sont implantées à partir d’un langage dédié de haut niveau. Cette solution présente les meilleures garanties en termes de performance d’exécution, mais présente aussi l’inconvénient de nécessiter la réécriture de l’implantation de chaque kernel devant être optimisé dans une compilette. Pour l’industrie logicielle, cette contrainte peut constituer un frein majeur à l’adoption de notre technologie, parce que la minimisation des coûts de production logicielle passe en majorité par une réutilisation maximale des codes sources existants.
Objectif
========
L’objectif de ce travail est de construire un générateur automatique de compilettes capable de travailler à partir d’une base de code existante (typiquement, du code C ANSI), et pouvant s’intégrer à une chaîne de production de code utilisant les technologies traditionnelles de compilateur.
Architecture numérique de contrôle de Qubits passant à l’échelle pour l’ordinateur quantique
Le passage à l’échelle de l’accélérateur quantique à plusieurs centaines de Qubits impose de revoir l’architecture de contrôle de la matrice en la répartissant entre les parties cryogéniques (sub-K et 4K) et l’extérieur du cryostat à température ambiante. En effet, un certain nombre de contraintes liées à l’utilisation d’un cryostat (thermiques, mécaniques) et aux propriétés des Qubits (nombre, fidélité, topologie) influent sur les choix architecturaux tels que le contrôle des Qubits, le jeu d’instructions, le stockage des mesures, le parallélisme des opérations ou la communication entre les différentes parties de l’accélérateur par exemple. L’objectif de ce post-doctorat est de définir l’architecture hors-cryostat à moyen (100-1000 Qubits) et long terme (plus de 10 000 Qubits) en partant des interfaces logicielles existantes dans les intergiciels de programmation quantique et en prenant en compte les contraintes du réseau de Qubits physiques développé au LETI.
Modélisation et Contrôle de la Fréquence et de la Tension dans des architectures GALS en présence de variabilité du process et de variations de tension et de température
L’évolution des technologies sub-microniques a induit des défis majeurs auxquels doit faire face le concepteur, à savoir, la gestion de la variabilité au sein de la puce (ou inter-puces) et la réduction de la consommation. Ces deux défis peuvent être traités par des techniques de "DVFS" (Dynamic Voltage and Frequency Scaling) : la puce est découpée en plusieurs zones de tension-fréquence à réguler compte tenu de références fixées par un superviseur qui prend en compte les contraintes de l’application et les capacités de la plateforme matérielle.
L’objectif de ce travail de post-doctorat est de revisiter les approches DVFS. Dans un premier temps, on effectuera une modélisation physique fine du système à réguler. On proposera ensuite des lois de contrôle non-linéaire qui prennent en compte les saturations des actionneurs, compte tenu d’un cahier des charges donné par des concepteurs de circuit. Les lois de contrôle devront tenir compte des contraintes d’implémentation sur une plateforme. Les performances de ces lois en asservissement et en régulation seront évaluées sur simulateur.
Le problème d’asservissement et régulation de la tension et de la fréquence est en fait intrinsèquement Multi-Entrées-Multi-Sorties (MIMO). On exploitera donc des techniques de contrôle MIMO pour répondre au cahier des charges fixé par les concepteurs de circuit.
Enfin, le contrôle de différentes zones VF est généralement piloté par un unique organe de décision. On réfléchira à des méthodologie de contrôle distribué qui prennent en compte par exemple l’état des zones voisines à la zones VF contrôlée.
Conception d’un hyperviseur sûr et sécurisé dans le contexte d’une architecture manycore
Le projet TSUNAMY a pour objectif de re-penser la conception des futures puces manycore selon une approche collaborative matériel/logiciel. Il visera notamment l’intégration de crypto-processeurs dans une telle puce, qui devient du même coup une architecture hétérogène dans laquelle l’ordonnancement, l’allocation, le partage et l’isolation des ressources seront des problématiques majeures.
Le laboratoire LaSTRE a conçu Anaxagoros, un micro-noyau qui assure de bonnes propriétés en termes de sécurité et d’intégration d’applications à criticités mixtes et se prête donc bien à la virtualisation de systèmes d’exploitation. Faire évoluer cette couche de virtualisation dans le cadre du projet TSUNAMY est le principal but de ce sujet de post-doctorat.
Le premier problème à traiter tient au passage d’Anaxagoros à l’échelle des manycores. Ce système a été développé pour s’adapter aux multi-coeurs : des techniques innovantes pour minimiser le nombre de points de synchronisation ont été proposées pour atteindre un haut niveau de parallélisme en mode "lock-free". C’est une première étape, mais le passage aux manycores apporte d’autres problématiques comme la cohérence des caches ou un accès non uniforme à la mémoire, qui nécessitent de se concentrer sur la localité des données. Le second problème sera d’incorporer dans Anaxagoros de véritables capacités de sécurité, notamment dans la protection contre les canaux cachés ou pour la confidentialité. Le troisième et dernier problème qui sera traité par des interactions avec les partenaires du projet sera de déterminer des techniques qui pourront être implémentées directement au niveau matériel pour empêcher que même une faille dans du logiciel habituellement considéré comme sûr ne permettra pas à un attaquant d’obtenir un accès à des données privées ou des fuites d’information.