Validation systémique des bases de règles floues : prise en compte de la disponibilité des données et des spécificités de l’inférence floue}
Ce sujet de thèse s’inscrit dans le domaine de l’intelligence artificielle symbolique. Contrairement aux approches basées sur les réseaux de neurones, ces méthodes reposent sur des règles explicites, souvent issues d’experts ou apprises à partir de peu de données, ce qui les rend interprétables mais potentiellement imparfaites.
Le problème central est donc la validation des bases de règles floues : il s’agit de vérifier que les règles produisent des résultats cohérents, utiles et fiables. Les méthodes existantes utilisent des métriques globales (performance globale du système) et locales (qualité de chaque règle), mais elles prennent peu en compte certaines spécificités importantes. Par exemple, les interactions entre règles peuvent fortement influencer le comportement final.
La thèse propose de développer une approche globale et systématique pour valider ces bases de règles, que des données soient disponibles ou non. Elle vise notamment à concevoir de nouvelles métriques capables de capturer ces interactions, en s’inspirant, par exemple, d’approches basées sur des graphes (comme les FinGrams ou les systèmes de réputation).
Le travail comprendra la définition d’un cadre méthodologique, la proposition de nouvelles mesures de validation, ainsi que leur implémentation et leur évaluation expérimentale.
Les résultats attendus sont des outils plus précis pour détecter les règles problématiques, et une amélioration globale de la performance et de la fiabilité des systèmes d’inférence floue.