



Ce projet de thèse vise à développer des réseaux neuronaux associatifs de type Hopfield, capables d’effectuer l’inférence par minimisation d’énergie.
L’objectif est d’exploiter ces dynamiques pour le débruitage et la reconstruction d’images à proximité des capteurs, dans des systèmes fortement contraints en énergie et en latence.
Les synapses du réseau seront implémentées dans des matrices de mémoires résistives ReRAM, permettant des opérations analogiques directement en mémoire.
Le travail portera sur le dimensionnement de ces architectures, en tenant compte de la taille des matrices, de la quantification des poids, de la variabilité des dispositifs et de leur endurance.
Des modèles de référence seront développés sous PyTorch afin d’évaluer différentes dynamiques neuronales et stratégies d’implémentation.
Le débruitage d’images par blocs servira de cas d’usage principal pour mesurer les compromis entre qualité de reconstruction, rapidité et consommation énergétique.
Une attention particulière sera portée à la robustesse des réseaux face aux non-idéalités matérielles, notamment le bruit, la variabilité et la dérive des mémoires.
Le projet explorera également des mécanismes d’apprentissage local sur puce, permettant une adaptation progressive aux changements du capteur, de la scène ou du matériel.
Ces règles devront rester compatibles avec les contraintes d’endurance des mémoires résistives.
À terme, la thèse devra fournir des recommandations de dimensionnement matériel et préparer la conception d’un démonstrateur expérimental.
L’enjeu scientifique est de montrer qu’une inférence associative dynamique peut constituer une brique efficace, robuste et basse consommation pour l’IA embarquée.

