Passage à l’échelle du jumeau numérique réseau dans les réseaux de communication complexes

Les réseaux de communication connaissent aujourd’hui une croissance exponentielle à la fois en termes de déploiement d’infrastructures réseau (notamment ceux des opérateurs à travers l’évolution progressive et soutenue vers la 6G), mais aussi en termes de machines, couvrant un large éventail d’équipements allant des serveurs Cloud aux composants IoT embarqués légers (ex. System on Chip : SoC) en passant par les terminaux mobiles comme les téléphones intelligents (smartphones).

Cet écosystème est aussi riche en équipements qu’en composants logiciels allant de l’application (ex. Audio/Vidéo streaming) jusqu’aux protocoles des différentes couches de communication réseau. De plus, un tel écosystème, lorsqu’il est opérationnel, se trouvera en perpétuel changement dont la nature peut être explicitée dans ce qui suit :
- Changement dans la topologie réseau : en raison, par exemple de défaillances matérielles ou logicielles, mobilité des utilisateurs, politiques de gestion des ressources réseau de l’opérateur, etc.
- Changement dans le taux d’utilisation/consommation des ressources réseau (bande passante, mémoire, CPU, batterie, etc.) : en raison des besoins des utilisateurs et des politiques de gestion des ressources réseau de l’opérateur, etc.

Pour assurer une supervision, ou plus généralement, une gestion efficace, qu'elle soit fine ou synthétique, des réseaux de communication, divers services/plateformes de gestion de réseau, tels que SNMP, CMIP, LWM2M, CoMI, SDN, ont été proposés et documentés dans la littérature sur les réseaux et organismes de normalisation. Par ailleurs, de telles plates-formes de gestion ont été largement adoptées notamment par les opérateurs réseau et par l’industrie de manière générale. D’ailleurs, cette adoption intègre souvent des fonctionnalités avancées, notamment des boucles de contrôle automatisées (par exemple, des systèmes experts ou des systèmes basés sur l’apprentissage automatique), améliorant ainsi la capacité des plateformes à optimiser les performances des opérations de gestion du réseau.

Cependant, malgré l’exploration et l’exploitation intensives des plateformes de gestion réseau, ces plateformes ne garantissent pas toujours une (re)configuration sans risque/erreur intrinsèque, dans des cas d’usage assez communs et critiques comme l’optimisation temps-réel du réseau, l’analyse de tests en mode opérationnel (what-if analysis), la planification des mises à jour/modernisations/extensions du réseau de communication, etc. Pour de tels scénarios, un nouveau paradigme de gestion réseau s’avère nécessaire.

Pour traiter les problématiques présentées dans la section précédente, la communauté scientifique a commencé à explorer l’adoption du concept de « jumeau numérique » pour les réseaux de communication, ce qui a donné naissance au paradigme du jumeau numérique réseau (Network Digital Twin : NDT). Le NDT est un jumeau numérique du réseau réel/physique (Physical Twin Network : PTN) ou l’on peut manipuler, sans risque, une copie numérique du vrai réseau, ce qui permet notamment de visualiser/prédire l’évolution (ou le comportement, l’état) du réseau réel si telle ou telle configuration réseau devait être appliquée. Au-delà de cet aspect, le NDT et le PTN échangent des informations via une ou plusieurs interfaces de communication dans le but de maintenir une bonne synchronisation entre eux.

Cependant, mettre en place un jumeau numérique réseau (NDT) n’est pas une tache simple. En effet, la synchronisation PTN-NDT fréquente et en temps réel pose un problème de passage à l’échelle (scalability) lorsqu’il est question de réseaux complexes (ex. nombre d’entités réseau trop important, topologies très dynamiques, volume important d’informations par nœud/par lien réseau), où chaque information réseau est susceptible d’être rapportée au niveau du NDT (par exemple un très grand nombre d'entités réseau, des topologies très dynamiques, ou un grand volume d'informations par nœud/par lien réseau).

Divers travaux scientifiques ont tenté de traiter la question du jumeau numérique réseau (NDT). Dans ces travaux il est question de définir des scenarios, exigences et architecture du NDT. Cependant, la question du passage à l’échelle dans le NDT n’a pas été traitée dans la littérature.

L'objectif de cette thèse de doctorat est de traiter le problème de passage à l’échelle (« scalabilité ») des jumeaux numériques réseau en explorant de nouveaux modèles d'apprentissage automatique pour la sélection et la prédiction des informations réseau.

Apprentissage continu multimodal sous contraintes

Les méthodes d’apprentissage profond standard sont pensées pour utiliser des données statiques. Cela induit une limitation pratique importante lorsqu’ils sont déployés dans des environnements dynamiques et sont confrontés à des données inconnues. L’apprentissage continu permet de répondre à ce problème, surtout avec l’utilisation de grands modèles pré-entraînés. Toutefois, le déploiement de tels modèles en mode autonome est actuellement impossible dans nombreuses applications frugales qui imposent de fortes contraintes calculatoires et/ou de mémoire. De plus, la plupart des méthodes actuelles sont développées pour une seule modalité (texte ou visuel), alors que les données captées sont souvent multimodales.
Cette thèse propose d’adresser plusieurs objectifs qui permettent le déploiement pratique d’agents capables de mettre à jour leurs représentations sous contraintes. Ce déploiement implique les objectifs suivants :(1) la collecte de corpus orientés domaine et leur augmentation basée sur des modèles génératifs multimodaux, (2) la compression de modèles de fondation pour les adapter au domaine et les rendre utilisables sous contraintes calculatoires et/ou de mémoire, (3) la proposition de méthodes d’apprentissage continu efficientes pour gérer de nouvelles données multimodales, et (4) la gestion de flux de données réalistes pour prendre en compte les specificités de différents contextes applicatifs.

Algorithmes d’intelligence artificielle générative pour comprendre et contrer la polarisation en ligne

Les plateformes en ligne permettent une large diffusion de l'information, mais leurs modèles économiques centrés sur l'engagement des utilisateurs favorisent souvent la diffusion de contenus politiques idéologiquement homogènes ou controversés. Ces modèles peuvent conduire à la polarisation des opinions politiques et entraver le bon fonctionnement des systèmes démocratiques. Cette thèse étudiera des modèles génératifs d'IA innovants conçus pour comprendre en profondeur la polarisation politique et pour contrer ses effets. Elle mobilisera plusieurs sous-domaines de l'intelligence artificielle : l'apprentissage génératif, l'IA frugale, l'apprentissage continu et l'apprentissage multimédia. Les avancées seront associées aux défis suivants :
-la modélisation de la polarisation politique et l’utilisation du modèle obtenu pour guider les algorithmes d'IA mis en oeuvre ;
-la collecte et le nettoyage de données politiques multimodales massives et diversifiées pour assurer une couverture thématique et temporelle, et la création d’un espace de représentation sémantique commun ;
-la proposition de modèles génératifs orientés politique afin d'encoder les connaissances du domaine de manière efficace et efficiente et de générer des données d'entraînement pour les tâches aval ;
-la spécialisation des modèles pour les tâches spécifiques nécessaires à une compréhension fine de la polarisation (détection de thèmes, reconnaissance d’entités, analyse de sentiments) ;
-la mise à jour continue des modèles génératifs et des tâches spécifiques à la polarisation pour suivre la dynamique des événements et des nouvelles politiques.

Contrôle de manipulateur mobile à haute mobilité en contexte dynamique

Le développement de manipulateur mobile capable de capacités d'adaptation est porteur d'avancées importantes pour le développement de nouveaux moyens de production, que ce soit dans des applications industrielles ou agricoles. En effet de telles technologies permettent de réaliser des tâches répétitives avec précision et sans contraintes liées à la limitation de l'espace de travail. Néanmoins, l'efficience de tels robots est soumise à leur adaptation à la variabilité du contexte d’évolution et de la tâche à réaliser. Aussi, cette thèse propose de concevoir des mécanismes d'adaptation des comportements sensori-moteurs pour ce type de robots, afin de garantir une bonne adéquation de leurs actions en fonction de la situation. Elle envisage d'étendre les capacités de reconfiguration des approches de perception et de commande par l'apport de l'Intelligence Artificielle, ici comprise au sens de l'apprentissage profond. Il s'agira de développer de nouvelles architectures décisionnelles capables d'optimiser les comportements robotiques pour la manipulation mobile dans des contextes évolutifs (notamment intérieur-extérieur) et la réalisation de plusieurs travaux de précision.

L'apprentissage de la manipulation fine et dextre par la vision et les observations kinesthésiques

La manipulation robotique fine et dextre pose des défis importants en raison de la nécessité d'une manipulation d'objets précise, de la coordination des forces de contact et de l'utilisation des observations visuelles. Cette recherche vise à relever ces défis en examinant l'intégration des capteurs visuels et kinesthésiques et des techniques sim2real. L'objectif est de développer des algorithmes et des modèles de bout en bout qui permettent aux robots de manipuler des objets avec une précision et une adaptabilité exceptionnelles. La recherche se concentrera sur l'apprentissage à partir de données à grande échelle, le transfert de connaissances des simulations aux scénarios du monde réel et la généralisation efficiente par le réglage fin à faible échantillonnage.

Top