5 mars 2020

Intelligence artificielle : décryptage du Livre blanc de la Commission européenne

Le 19 février dernier, la Commission européenne a publié un livre blanc intitulé « Intelligence artificielle : Une approche européenne axée sur l'excellence et la confiance » dans lequel elle aborde notamment la question de l’évaluation des systèmes d’intelligence artificielle et propose la mise en place d’un cadre réglementaire.

Evaluation de l'intelligence artificielle

Guillaume Avrin, responsable du département Evaluation de l’intelligence artificielle au LNE, revient avec nous sur les questions soulevées par ce livre blanc

Guillaume AvrinPourquoi l’évaluation restait encore un sujet peu discuté dans les débats sur l’IA avant la sortie de ce livre blanc ?

L’évaluation d’un système d’IA est confrontée à une problématique liée au caractère même de son cadre de fonctionnement. Par définition, l’environnement dans lequel un système d’intelligence artificielle est amené à évoluer peut présenter une très importante diversité de situations. L’aptitude d’un système est ainsi principalement évaluée à travers ses facultés d’adaptation, propres à la notion d’intelligence.

Ce domaine d’utilisation disqualifie souvent l’option d’une évaluation en environnement réel de par l’impossibilité pratique de disposer de situations représentant tous les cas de figure, en nombre parfois quasi-infini. Il est alors nécessaire de développer un outil de simulation spécifique, capable d’interpolation et d’extrapolation.

Ces difficultés de fond expliquent en partie pourquoi le paysage des centres d’essais capables d’évaluer les IA reste encore aujourd’hui relativement inhabité et le sujet peu discuté.

La Commission européenne met particulièrement en avant l’éthique. Comment l’évaluation peut-elle contribuer à garantir le caractère éthique d’une IA ?

Derrière la définition de l’éthique liée à la morale, le caractère acceptable d’une intelligence artificielle repose beaucoup sur la transparence de son mode de fonctionnement et sur la possibilité de prédire et d’expliquer son processus de décision, qualités indispensables pour permettre l’évaluation du système. Dans les cas les plus difficiles, comme chez les systèmes auto-apprenants, c’est bien alors à l’évaluateur qu’incombera la responsabilité de mettre en place les essais qui solliciteront le système face aux enjeux sécuritaires et éthiques afin de s’assurer que son comportement corresponde à celui attendu.

Pourquoi mettre en place d’une certification européenne obligatoire pour les systèmes d’IA ?

Aux USA, suite à un accident mortel impliquant un véhicule autonome, le National Transport Safety Board (NTSB) souhaite évaluer le système d'aide à la conduite de Tesla, baptisé Autopilot. En février dernier, Microsoft, IBM et Académie pontificale pour la vie ont signé un document baptisé « Appel de Rome pour une éthique de l’intelligence artificielle » dans lequel ils appellent à de nouvelles formes de réglementation afin de favoriser la transparence et le respect des principes éthiques.

Chaque jour, avec la démocratisation de l’intelligence artificielle, de nouveaux débats appellent à plus de contrôle et à une meilleure compréhension de ces systèmes. Compte tenu de la nouveauté, des risques et de la sensibilité sociétale, l’acceptabilité de ces systèmes ne se fera pas sans codification et cadre réglementaire. Il est alors indispensable d’établir des référentiels communs permettant d’élever les niveaux de sécurité et de fiabilité, tout en assurant la protection des citoyens et des consommateurs.

A l’image des dispositifs médicaux qui se doivent tous d’obtenir le marquage CE pour une commercialisation dans l’Union européenne, on peut imaginer une certification des systèmes intelligents délivrée par une organisme notifié indépendant, avec des niveaux d’exigence plus ou moins stricte selon le caractère critique du système.

Découvrez le livre blanc de la Commission européenne

 

Pour aller plus loin :

Consulter notre dossier : Evaluer les intelligences artificielles

Découvrir les travaux du LNE et les prestations proposées dans le domaine de l'évaluation des intelligences artificielles