Sélectionner une page

Explicabilité des modèles d’I.A.* « Black Box »

Un programme de R&D mené en partenariat avec le laboratoire LAMSADE, Université Paris Dauphine, rattaché au domaine d’excellence Data.

Contexte

Les modèles d’intelligence artificielle sont utilisés dans de nombreux domaines (octrois de crédits, aide à la détection de fraude, etc.) et ils fournissent de très bon résultats. Cependant, ils manquent de transparence et d’explicabilité, ce qui constitue un frein à leur adoption par les équipes métiers et leur management, ainsi qu’à leur utilisation aux yeux des régulateurs.

pour quoi ?

Le programme vise à améliorer des méthodes et des outils pour pouvoir expliquer les résultats des modèles d’intelligence artificielle (sans entrer dans leur fonctionnement interne « Black Box ») et justifier ou non de la pertinence de leur prédiction.

Comment ?

Le programme de recherche permet une meilleure interprétation des modèles et met l’accent sur l’analyse de leur failles et la détection de leurs biais internes afin d’identifier des pistes d’amélioration lorsque cela s’avère nécessaire. Les travaux portent sur la comparaison des méthodes existantes et l’amélioration de métrique permettant de comparer les explications. 

Pour qui ?

Les entreprises de tous les secteurs.

CHERCHEURS

Docteure Sara MEFTAH (Chercheur (PhD) – Consultant)

Docteure Sara MEFTAH (Chercheur (PhD) – Consultant)

Diplômée d’un Master 2 en Intelligence Artificielle (Paris Dauphine), et détentrice d’un diplôme d’ingénieur en Informatique, Sara a obtenu son doctorat en traitement automatique des langues (Natural Language Processing) au Commissariat à l’Énergie Atomique et aux énergies renouvelables (CEA) et à l’université de Paris Saclay. Sara est chercheure au Square Research Center et contribue en particulier aux travaux de recherche sur la conception et le développement de nouvelles méthodes d’interprétabilité et d’explicabilité des modèles d’apprentissage automatique.
Publication
  • “Intelligence Artificielle : comment anticiper les nouvelles réglementations européennes”, Maddyness — 25/10/2021
Clément Feutry (Chercheur (PhD) – Consultant)

Clément Feutry (Chercheur (PhD) – Consultant)

Après une expérience dans la recherche académique et de l’enseignement dans le supérieur à l’ENS de Cachan, Clément est maintenant l’un des moteurs des activités de R&D de Adway. Il dispose d’une expertise en traitement d’image et en machine learning, sujet de son doctorat. Outre son travail sur l’uplift, il est aussi impliqué sur d’autres sujets de R&D au sein du Square Research Center: l’explicabilité. Clément intervient en mission sur ces sujets cauxquels il apporte son expertise d’automatisation et de modélisation. Son intervention peut inclure la réalisation de POC ou démarrer à partir d’une audit de l’existant.
Publications
  • “Après l’explosion du e‑commerce, l’heure du bilan sur la génération de trafic et son ROI a sonné!” LSA, 02/12/2021
  • “Revisiting the CATE/uplift problem with binary outcome and treatment: new metric, models and a comprehensive benchmark” en cours de publication

LES AUTRES PROGRAMMES SQUARE RESEARCH CENTER

Share This