13 April 2023

Evaluer et certifier l’intelligence artificielle

Plutôt qu’un moratoire sur le développement de l’IA tel que proposé par des personnalités de la tech dans leur récente lettre ouverte, une réglementation adéquate pour encadrer l’usage et la commercialisation des IA doit être mise sur pied. Dans cette perspective, le LNE réalise déjà de nombreuses évaluations pour les pouvoirs publics et les industriels, et propose également une certification des processus d’intelligence artificielle, s’appuyant sur les exigences du futur règlement européen. Il répond ainsi au besoin de confiance de la part des professionnels et du grand public.

Le LNE évalue les systèmes d'IA et certifie les processus pour l'IA

Evaluer, fiabiliser et sécuriser

Spécialiste de l’évaluation de l’IA depuis plus de 15 ans et présent dans de nombreux projets de recherche européens, le LNE développe des méthodes d’évaluation en traitement de la langue, de la voix et de l’image, visant à évaluer la performance et la robustesse des systèmes d’IA (robotique, véhicule autonome, assistant vocaux…). Le LNE a déjà évalué à ce jour plus de 1000 systèmes IA pour les industriels ou les pouvoirs publics, dans des domaines sensibles comme la médecine, la défense ou le véhicule autonome, ainsi que dans l’agroalimentaire ou l’industrie 4.0.

Evaluer les performances de l’IA

Le LNE renforce actuellement ses moyens d’évaluation en poursuivant le développement de son laboratoire d’évaluation de l’intelligence artificielle LEIA, une infrastructure reconstituant l’environnement dans lequel un dispositif physique embarquant de l’IA (robots d’aide à la personne, caméras intelligentes, robots d’intervention civils et militaires, etc.) est amené à évoluer. Elle permettra d’y caractériser sa fiabilité et de sécuriser son usage, en s’assurant de la correspondance entre son comportement et celui attendu, mais aussi du caractère éthique de l’IA : données traitées de manière équitable, justesse de l’information divulguée à l’utilisateur…etc.

Certifier les processus pour l'IA

En outre, pour pallier l’absence de réglementation relative au développement des IA, le LNE a développé en 2021 le premier référentiel pour la certification de processus pour l’IA, visant à garantir que les solutions sont développées et mises sur le marché en respectant un ensemble de bonnes pratiques, aussi bien en termes de développement algorithmique et sciences des données, que de prise en compte du contexte métier et du contexte réglementaire.

Elle atteste la qualité des processus de conception, de développement, d’évaluation et de maintien en conditions opérationnelles et permet notamment aux développeurs de démontrer qu’ils maitrisent toutes les étapes du cycle de vie de leur IA et répondent aux exigences de leurs clients.

Cette certification volontaire permet aux fournisseurs de solutions d’IA ou aux entreprises intégrant à leurs offres des solutions achetées sur le marché ou développées en interne de rassurer leurs clients, et de répondre aux futures exigences de l’IA Act, notamment son obligation de transparence impliquant la capacité à contrôler les résultats d’une IA, en l’occurrence de pouvoir comprendre comment fonctionne l’algorithme et comment il a pris une décision, garantissant ainsi une IA dite «de confiance ».

Expertise et indépendance au service de la sécurité de l’IA

En tant que laboratoire national de métrologie et d’essais, le LNE est convaincu de l’importance des besoins de fiabilité et de robustesse pour garantir la sécurité et œuvre chaque jour pour permettre aux industriels de concevoir et d’innover dans des systèmes fiables, interprétables, transparents, et dignes de confiance.

Nous vous invitons à consulter notre avis d’expert « Evaluer et certifier l’intelligence artificielle », par Agnès Delaborde, Responsable du Département Evaluation de l’intelligence artificielle et Cybersécurité