Détection d'anomalies dans les vidéos adaptative et explicable
La détection d'anomalies dans les vidéos (VAD) vise à identifier automatiquement les événements inhabituels dans des séquences vidéo qui s’écartent des comportements normaux. Les méthodes existantes reposent souvent sur l'apprentissage One-Class ou faiblement supervisé : le premier n'utilise que des données normales pour l'entraînement, tandis que le second s'appuie sur des labels au niveau de la vidéo. Les récents progrès des modèles Vision-Langage (VLM) et des grands modèles de langage (LLM) ont permis d’améliorer à la fois les performances et l’explicabilité des systèmes VAD. Malgré des résultats prometteurs sur des jeux de données publics, plusieurs défis subsistent. La plupart des méthodes sont limitées à un seul domaine, ce qui entraîne une baisse de performance lorsqu'elles sont appliquées à de nouveaux jeux de données avec des définitions d’anomalies différentes. De plus, elles supposent que toutes les données d'entraînement sont disponibles dès le départ, ce qui est peu réaliste dans des contextes d’utilisation réels où les modèles doivent s’adapter continuellement à de nouvelles données. Peu d’approches explorent l’adaptation multimodale en utilisant des règles en langage naturel pour définir les événements normaux ou anormaux. Or, cela permettrait une mise à jour plus intuitive et flexible des systèmes VAD sans nécessiter de nouvelles vidéos.
Ce sujet de thèse a pour objectif de développer des méthodes de détection d’anomalies vidéo adaptables, capables de traiter de nouveaux domaines ou types d’anomalies en s’appuyant sur peu d’exemples vidéo et/ou des règles textuelles.
Les axes de recherche principaux seront les suivants :
• Adaptation interdomaines en VAD : améliorer la robustesse face aux écarts de domaine via une adaptation Few-Shot ;
• Apprentissage continu en VAD : enrichir le modèle en continu pour traiter de nouveaux types d’anomalies ;
• Apprentissage multimodal en Few-Shot : faciliter l’adaptation du modèle à l’aide de règles en langage naturel.
Gestion de réseau pilotée par l'IA avec de grands modèles LLMs
La complexité croissante des réseaux hétérogènes (satellitaire, 5G, IoT, TSN) nécessite de faire évoluer la gestion de réseau. Le Réseau Basé sur l'Intention (IBN), bien qu'avancé, se heurte encore à la difficulté de traduire des intentions de haut niveau en configurations techniques sans ambiguïté. Ce travail propose de lever ce verrou en exploitant les Grands Modèles de Langage (LLM) comme interface cognitive pour une automatisation complète et fiable.
Cette thèse vise à concevoir et développer un framework IBN-LLM pour créer le cerveau cognitif d'une boucle de contrôle fermée au-dessus du SDN. Le travail se concentrera sur trois défis majeurs : 1) développer un traducteur sémantique fiable du langage naturel vers les configurations réseau ; 2) concevoir un Moteur de Vérification déterministe (via simulations ou jumeaux numériques) pour prévenir les « hallucinations » des LLM ; et 3) intégrer une capacité d'analyse en temps réel (RAG) pour l'Analyse de Cause Racine (RCA) et la génération proactive d'intentions d'optimisation.
Nous attendons la conception d’une architecture IBN-LLM intégrée aux contrôleurs SDN, ainsi que des méthodologies pour la vérification formelle des configurations. La contribution principale sera la création d'un modèle basé sur LLM capable d'effectuer la RCA et de générer des intentions d'optimisation en temps réel. La validation de l'approche sera assurée par un prototype fonctionnel (PoC), dont l'évaluation expérimentale permettra de mesurer précisément les performances en termes de précision, de latence et de résilience.
Compression hybride de réseaux de neurones pour l’IA embarquée : concilier efficacité et performance
Les réseaux de neurones convolutifs (CNNs) sont aujourd’hui au cœur de la vision par ordinateur, mais leur déploiement sur des systèmes embarqués (robots, objets connectés, dispositifs mobiles) reste limité par leur taille et leur consommation en énergie. Une solution consiste à compresser les modèles pour les rendre plus légers et plus rapides, sans perte importante de précision. Plusieurs approches existent (quantification des poids, factorisation bas-rang, sparsité), mais elles atteignent rapidement leurs limites lorsqu’elles sont appliquées séparément. L’objectif de cette thèse est de développer un cadre d’optimisation unifié permettant de combiner ces techniques de façon synergique. Le travail comportera une part théorique (modélisation mathématique, optimisation) et une part expérimentale (validation sur réseaux standards comme ResNet ou MobileNet, puis sur plateformes embarquées type Jetson, Raspberry Pi, FPGA). À plus long terme, l’approche pourra être testée sur d’autres architectures comme les transformers. Le projet s’appuie sur une collaboration entre un laboratoire académique spécialisé en décomposition tensorielle et un partenaire orienté hardware, offrant un encadrement complémentaire et interdisciplinaire.