Sélectionner une page

L’explicabilité des modèles d’apprentissage automatique

Rattaché au Domaine d’Excellence
Data

que réalisons nous ?

Nos travaux de recherche permettent de pouvoir expliquer les décisions prises via les modèles d’apprentissage automatique, pour des raisons de réputation, de plus en plus pour des raisons réglementaires, mais aussi pour pouvoir mieux objectiver la prise de décision elle-même. Nos travaux développent des solutions permettant, l’amélioration des métriques d’évaluation des modèles d’explicabilité en termes de plausibilité et de fidélité. La conception de modèles de substitution robustes aux attaques adversariales. La génération d’attaques adversariales et d’exemples contrefactuels adaptés, particulièrement ardue dans le cas d’une application NLP, afin d’optimiser la capacité d’interprétabilité des algorithmes d’IA. Nous avons également proposé une nouvelle taxonomie exhaustive et intuitive des méthodes, qui catégorise les méthodes selon leurs objectifs et permet de proposer une standardisation du processus d’évaluation. 

CHERCHEURE

Docteure Sara MEFTAH

Docteure Sara MEFTAH

Diplômée d’un Master 2 en Intelligence Artificielle (Paris Dauphine), et détentrice d’un diplôme d’ingénieur en Informatique (École Nationale Supérieure d’Informatique — Algérie), Sara a obtenu son doctorat en traitement automatique des langues (Natural Language Processing) au Commissariat à l’Énergie Atomique et aux énergies renouvelables (CEA) et à l’université de Paris Saclay. Sara est chercheure au Square Research Center et contribue en particulier aux travaux de recherche sur la conception et le développement de nouvelles méthodes d’interprétabilité et d’explicabilité des modèles d’apprentissage automatique. Elle participe aux activités de recherche du Lamsade (UMR 7243).
Les travaux de Sara sur le Natural Language Processing ont été publiés et présentés dans différentes conférences nationales et internationales.

LES AUTRES PROGRAMMES SQUARE RESEARCH CENTER

Share This