6 mois
Trappes (78)
Réf. STA/IA/DEC
  • Partager sur Twitter
  • Partager sur LinkedIn
Stage

Estimation de l'apport de l'explicabilité pour l'évaluation de l'Intelligence Artificielle

Contexte du stage


L’IA pose actuellement le problème de l’effet « boîte noire » : les concepteurs ne sont pas en mesure d’expliquer formellement les prises de décision réalisées par l’IA (pourquoi une décision plutôt qu’une autre, s’appuyant sur quel(s) facteur(s), etc.). Cette limitation dans la compréhension de l’IA pose des problèmes sociétaux, légaux et économiques : peut-on faire confiance à une IA dont on ne peut expliquer les décisions ?

L’explicabilité de l’IA (ou « intelligibilité » de l’IA, « interprétabilité » de l’IA) est une thématique de R&D initialement portée par la DARPA (Defense Advanced Research Projects Agency) et dont l’essor à l’international est important : appel à projet européen Chist-era 2020 dédié à l’explicabilité ; rapport « Donner un sens à l’intelligence artificielle » de Cédric Villani, etc. Les outils d’explicabilité de l’IA sont des algorithmes qui permettent d’extraire des informations « humainement compréhensibles » au sein-même des algorithmes d’IA.
En termes d’évaluation et de certification de l’IA, la communauté fait face à la problématique de la « boîte noire » également, dans la mesure où il n’existe pas de garantie que les jeux de données de test utilisés présentent une distribution des facteurs en adéquation avec l’algorithme évalué. Il est donc impossible de garantir que les tests ont lieu dans les conditions optimales de test.
Le stage visera à estimer l’apport des outils d’explicabilité sur la définition des jeux de données de test, afin de disposer d’un retour d’expérience quantifié. Les travaux consisteront notamment à mettre au point un protocole d’essai qui permettra d’estimer, à terme, si un algorithme d’explicabilité peut représenter un outil adéquat pour déterminer les contours du domaine de fonctionnement d’un algorithme d’IA. Dans le cadre du stage, le LNE s’appuie sur une collaboration avec Craft AI, fournisseur de solutions d’intelligence artificielle explicables, qui mettra à disposition des algorithmes et des jeux de données réels sur le cas d’usage d’un dispositif médical intelligent.

Missions 

Dans le cadre de ce stage, vos missions consisteront à :


- Constituer un plan expérimental pour l’évaluation d’un (ou plusieurs) algorithme(s) d’intelligence artificielle explicable(s)
- Réaliser des essais, à partir de ce plan expérimental, sur ce (ou ces) algorithme(s), en s’appuyant sur un jeu de données réelles
- Rédiger un rapport d’essai expliquant la procédure de test employée, et proposant une interprétation des résultats obtenus


Profil 

Vous recherchez un stage dans le cadre de votre Master 2 ou dernière année d’école d’ingénieur. Votre formation possède une spécialité en informatique ou science des données.
Vous maîtrisez les principes des algorithmes d’intelligence artificielle (apprentissage automatique, par renforcement, etc.).
Des connaissances en science des données (approche informatique et/ou statistique) sont requises.
Une connaissance des algorithmes d’explicabilité existants serait un véritable plus (Linear Proxy Models, arbres de décision, extraction automatique de règles, etc.).
Vous disposez de très bonnes capacités de synthèse et de rigueur scientifique pour le développement du plan d’expérimentation.

 

Gratification

1218 € brut / mois pour un étudiant en Bac +5

 

×
En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies conformément à notre politique de données personnelles. En savoir plus.