4 avril 2023

Évaluer et certifier l’intelligence artificielle

Les prouesses de l’intelligence artificielle n’en finissent pas d’impressionner, suscitant interrogations et parfois craintes. Moins que de déclarer un moratoire sur le développement de l’IA tel que proposé récemment dans une lettre ouverte par des personnalités de la tech, il s’agit de mettre sur pied une réglementation adéquate pour encadrer l’usage et la commercialisation des IA. Dans cette perspective, le LNE réalise déjà de nombreuses évaluations pour les pouvoirs publics et les industriels du secteur. S’inspirant des recommandations de l’Union européenne, le laboratoire propose également une certification sur les processus d’intelligence artificielle, répondant ainsi au besoin de confiance de la part des professionnels et du grand public.

Avis d’expert, par Agnès Delaborde, Responsable du Département Evaluation de l’intelligence artificielle et Cybersécurité.

 

Développé par OpenAI et lancé en novembre 2022, ChatGPT (Chat Generative Pre-trained Transformer) est un agent conversationnel capable de traiter les requêtes des utilisateurs dans différentes langues. Capable de réagir de façon fluide à des échanges complexes, ChatGPT impressionne de prime abord par ses performances et a été vécu comme une rupture dans le développement des algorithmes d’intelligence artificielle (IA).

Concrètement, ChatGPT est fondé sur des techniques classiques de l’intelligence artificielle : les réseaux de neurones et l’apprentissage machine. En ce sens, on n’observe pas là de rupture technologique fondamentale. Pour autant, le projet est d’une ampleur sans précédent quant au nombre de paramètres pris en compte par l’algorithme, le volume des données utilisées pour la phase d’apprentissage et la finesse avec laquelle ont été gérés de nombreux aspects tel que le filtrage de ces données. Ainsi, le chatbot impressionne par la qualité et la pertinence des échanges qu’il peut entretenir avec l’utilisateur.

Dans ce contexte, des personnalités de la tech, notamment le milliardaire Elon Musk, ont publié récemment une lettre ouverte dans laquelle les milliers de signataires appellent les laboratoires d’IA à faire une pause dans le développement de leur technologie. Selon eux, « les systèmes d’IA dotés d’une intelligence capable de concurrencer celle de l’homme posent de graves risques pour la société humaine. » Par conséquent, il serait nécessaire d’interrompre immédiatement et pour au moins 6 mois le développement de systèmes d’IA plus puissants que GPT-4, la dernière version du robot conversationnel d’OpenAI.

L’Europe, pionnière dans la réglementation des IA

Au-delà de cette publication, l’épisode rappelle surtout que les possibilités offertes désormais par l’intelligence artificielle plaident pour la mise en place d’une réglementation à-même d’accompagner et d’encadrer l’essor de l’IA. C’est exactement ce à quoi s’emploie l’Union européenne : en 2021, la Commission publiait une proposition de réglementation pour l’IA, l’AI Act, qui a pour objectif de réglementer l’usage et la commercialisation des IA lorsque le texte sera applicable en 2025. Si d’ici là, l’Europe reste dans l’expectative quant aux manières concrètes dont cet acte sera implémenté, et se prépare encore à la future démonstration de conformité des produits et services à base d’IA, il semble évident qu’en Europe nous disposons d’une longueur d’avance dans l’anticipation des technologies pouvant potentiellement porter atteinte aux droits fondamentaux et à la sécurité des individus.

En tant qu’établissement public à caractère industriel et commercial, dont la mission historique est d’apporter un soutien à l’industrie et d’assurer la sécurité et la santé des citoyens, le LNE est pleinement engagé dans la mise en place d’un cadre de confiance pour les futurs systèmes d’IA.

Ainsi, en collaboration avec ses partenaires, les autorités de contrôle et les industriels, le LNE participe actuellement à trois projets européens majeurs visant à la mise en place de réseaux et de plateformes d’essais pour l’intelligence artificielle. Ces projets, appelés TEF (Testing and Experimentation Facilities, https://digital-strategy.ec.europa.eu/en/activities/testing-and-experimentation-facilities), permettront concrètement de développer des méthodes et moyens d’essais permettant de qualifier la performance, la fiabilité et la robustesse des systèmes d’IA, et d’établir s’ils sont dignes de confiance. Plus précisément, les protocoles d’essais se focaliseront sur les essais de sécurité et l’évaluation des aspects éthiques, légaux et sociétaux.

Évaluer, fiabiliser et sécuriser

D’ores et déjà, le LNE a déjà évalué plus de 1000 systèmes IA pour les industriels ou les pouvoirs publics, dans des domaines sensibles comme la médecine, la défense ou le véhicule autonome et également dans les secteurs agroalimentaire ou industrie 4.0.

Le LNE renforce actuellement ses moyens d’évaluation avec son projet LEIA de Laboratoire pour l’évaluation de l’intelligence artificielle, une infrastructure reconstituant l’environnement dans lequel un dispositif physique embarquant de l’IA (robots d’aide à la personne, caméras intelligentes, robots d’intervention civils et militaires, etc.) est amené à évoluer. Elle permettra d’y caractériser sa fiabilité et de sécuriser son usage, mais aussi de s’assurer du caractère éthique de l’IA : l’ensemble des données est-il traité de manière équitable, l’information divulguée à l’utilisateur est-elle juste… ?

De fait, comme le soulignait Guillaume Avrin, alors responsable du département Evaluation de l’IA du LNE et aujourd’hui coordonnateur de la stratégie nationale pour l’intelligence artificielle, « plus nous disposons d’une connaissance précise du domaine de fonctionnement d’une IA, c’est-à-dire des conditions dans lesquelles elle fonctionne ou au contraire ne fonctionne pas, plus nous sommes disposés à interagir avec elle. La taille du domaine de fonctionnement nominal des technologies intelligentes, qui caractérise leur niveau de robustesse, est l’un des principaux critères de choix. » Précisément, nous travaillons ainsi au LNE sur des méthodes d’évaluation en traitement de la langue, de la voix, de l’image.

Certifier les IA pour leur faire confiance

En outre, le LNE a également développé en 2021 le premier référentiel pour la certification des processus d’IA, qui vise à garantir que les solutions sont développées et mises sur le marché en respectant un ensemble de bonnes pratiques, tant sur les aspects développement algorithmique, sciences des données, que prise en compte du contexte métier et du contexte réglementaire.

La certification est volontaire, c’est-à-dire qu’elle peut être demandée par tout fournisseur de solution ou service IA souhaitant présenter un gage de confiance à ses clients, usagers ou investisseurs.

Elle atteste de la qualité des processus de conception, de développement, d’évaluation et de maintien en conditions opérationnelles. Ce faisant, elle répond au besoin de confiance de la part des professionnels et du grand public dans l’intégration ou l’utilisation de biens ou services contenant de l’IA. Elle permet notamment aux développeurs de démontrer qu’ils maitrisent toutes les étapes du cycle de vie de leur IA et répondent aux exigences de leurs clients.

Contacts presse

Valérie Mulot • 01 40 43 40 93 • valerie.mulot@lne.fr