Intelligence artificielle : un cadre de confiance urgent

Avec l’essor des modèles à usage général, l’intelligence artificielle a franchi un nouveau cap que les Etats tentent aujourd’hui de réguler. Entre soutien à l’innovation, dans une compétition mondiale effrénée, et garde-fous, face à des risques encore difficiles à prévoir, les initiatives se multiplient pour guider un développement responsable de l’IA. L’enjeu est aussi de créer un modèle équitable à l’échelle du globe, grâce à la coopération internationale. Pour accompagner le mouvement et contribuer à créer un cadre de confiance, la métrologie est en ordre de marche.

Vertigineuses et paradoxales… ainsi pourrait-on qualifier les statistiques en cours sur l’intelligence artificielle. Selon certaines études, celle-ci devrait générer des revenus mondiaux de plus de 1800 milliards de dollars d’ici à 2030, soit un taux de croissance annuel moyen de 37%1. Cela sous le leadership américain et chinois, et grâce aux progrès constants de l’IA au sein d’entreprises en quête de compétitivité et de croissance (72% l’auraient adoptée pour leurs fonctions commerciales2).

Ruée vers l’or, ou boîte de Pandore ?

Si les salariés semblent de plus en plus optimistes quant aux effets de l’IA sur leur emploi (52%3), ils seraient encore nombreux à craindre sa disparition (36%, voire 42% en France)3. De fait, le Fonds monétaire international (FMI) estime que le développement de l’IA aura un impact sur 60% des emplois dans les pays industrialisés4 – entre gains de productivité et déclin. D’autres encore, à l’instar de l’Organisation internationale du travail, pensent que l’IA créera plus d’emplois qu’elle n’en détruira… Déjà, d’ailleurs, on constate une croissance des offres d’emploi en IA 3,5 fois supérieure aux autres5.

Image
Intelligence artificielle : IA Ethique
L'usage des IA ouvre une réflexion éthique et philosophique

Difficile, pour l’heure, de se projeter très clairement. Ce qui est certain, c’est que l’IA a franchi un tournant dès 2023 avec l’essor des modèles à usage général, notamment GPT-4, Gemini, Claude 3… Et que si cette IA générative soulève de profondes questions économiques et sociales, avec pour impératif de ne laisser personne au bord du chemin, elle ouvre aussi une vaste réflexion éthique et philosophique. Serions-nous face à une boîte de Pandore ? Les inquiétudes ont été renchéries par les progrès fulgurants de cette technologie. Des tests d’aptitude intellectuelle ont démontré que GPT-4 développe un QI supérieur à celui de 80 à 99% de la population, et des tests d’entraînement6 qu’il est capable d’user de ruse et de tromperie (dans sa version non bridée). Et on annonce déjà un GPT-5 sensiblement amélioré. L’inquiétude est d’autant plus grande que ces modèles peuvent également agir sur des objets physiques, tels que des objets connectés ou des robots, ou de mener des conversations avec les internautes.

Le besoin affiché d’une gouvernance mondiale

Pressentant ces multiples enjeux économiques, sociétaux et sécuritaires, l’Europe et la France ont dès 2018 publié chacune leur stratégie IA, pour à la fois soutenir l’innovation et l’encadrer. Une démarche qui s’est globalisée avec le partenariat mondial sur l'intelligence artificielle (PMIA, ou GPAI en anglais), initié la même année par le Canada et la France, et officiellement lancé en 2020. Comptant aujourd’hui 29 pays membres7, son objectif est de guider le développement responsable d’une IA fondée sur les droits de l’Homme. En l’occurrence, le PMAI organise des groupes de travail autour de quatre thématiques : utilisation responsable de l’IA, gouvernance des données, avenir du travail, innovation et commercialisation. Parallèlement, en 2019, l’OCDE a adopté ses principes sur l’intelligence artificielle, un premier ensemble de normes allant dans le même sens, au service de la confiance.

Cependant, l’accélération de l’IA à usage général a occasionné une plus grande prise de conscience des dangers. L’Europe a notamment revu sa copie pour que l’AI Act réglemente spécifiquement les IA susceptibles de présenter des risques systémiques. Et le G7 a adopté de premiers principes directeurs pour les systèmes d’IA avancés, ainsi qu’un code de conduite volontaire encourageant les développeurs à publier des rapports sur les possibilités et les limites de leurs technologies, et à investir dans des contrôles de sécurité robustes.

Image
Intelligence artificielle : sécurité
S'engager dans la coopération internationale pour gérer les risques en matière de sécurité et de sûreté des IA

Mais la mobilisation a pris une dimension inédite avec l’AI Safety Summit. Organisé pour la première fois au Royaume-Uni en 2023, puis à Séoul en 2024, ce sommet permet d’engager ses participants à la coopération internationale pour gérer les risques en matière de sécurité et de sûreté. Parmi eux : des géants de la tech autant que des Etats - les premiers offrant notamment aux seconds un accès privilégié à leurs modèles pour les tester avant mise sur le marché.

Organisatrice de sa prochaine édition, les 10 et 11 février 2025, la France adhère pleinement au processus. Comme l’expliquait Emmanuel Macron en clôture du sommet de Séoul8, l’enjeu est d’éviter que des gouvernances régionales viennent obérer la capacité à investir et innover ensemble, et créer des préférences collectives différentes : « L’intelligence artificielle n’est pas simplement une révolution économique et technologique – elle porte le potentiel d’un profond changement de paradigme de nos sociétés, c’est-à-dire notre rapport au savoir, notre rapport au travail, notre rapport à l’information et donc à la démocratie, notre rapport à la culture et même au langage. (…) C’est devenu clairement un enjeu politique et ça peut l’être pour la pire ou la meilleure des raisons. »

Une action organisée autour des 3S

Face aux enjeux urgents et concrets du déploiement de l’IA, toutefois, la France ne souhaite pas limiter le débat aux « risques existentiels » et place déjà le prochain sommet sous le signe de l’action, en le rebaptisant « AI Action Summit ». Elle plaide pour une gouvernance internationale fondée sur le « triptyque sciences, solutions et standards ». Un triptyque dans lequel la métrologie a toute sa place.

Sciences : bâtir un consensus robuste

A la manière du GIEC, un groupe d’experts mené par Yoshua Bengio – fondateur et directeur scientifique de Mila - livrera en 2025 un rapport scientifique international sur la sécurité de l’IA à usage général. De premiers résultats provisoires9 mettent en évidence les incertitudes et les désaccords sur les capacités de tels systèmes,  ainsi que sur leurs risques et les moyens de les réduire. Si tous s’accordent à dire que la technologie actuelle ne fait pas courir le danger d’une perte de contrôle par l’homme, ils soulignent une grande variété de trajectoires possibles… et de conséquences plus ou moins heureuses. Des travaux à poursuivre donc.

Pour l’heure, comme le rappellent les experts LNE mandatés pour la révision finale du rapport Bengio, la tâche des métrologues est d’établir une liste de méthodes de référence qui permettront d’identifier et de quantifier les risques rationnels de l’IA, c’est-à-dire les risques dits « raisonnablement prévisibles » au sens réglementaire. Une tâche déjà ardue en soi. Dans son AI Index Report 202410, l’Institute for Human-Centered Artificial Intelligence (Université de Stanford) constate par exemple l’urgence de nouvelles méthodes pour suivre l’évolution rapide des systèmes d’apprentissage automatique, notamment la nécessité d’introduire des tâches d’évaluation complexes, faisant appel à l’abstraction et au raisonnement.

Pour nourrir cette démarche empirique, les chercheurs en métrologie multiplient les travaux et les cas d’usage. Depuis 2023, ceux du LNE sont par exemple investis sur des projets en défense, où l’usage de l’IA est également critique et avec des besoins forts d’encadrement. Au-delà de l’état de l’art, KOIOS explore l'apprentissage automatique frugal, pour une adaptation rapide des systèmes d'IA dans les scénarios d’urgence – comme les séismes -, quand il y a peu de données ou une capacité de calcul limitée. Le projet Commands, de son côté, vise à accompagner le développement du véhicule terrestre autonome, et plus précisément un système de systèmes capable de fournir une coopération fiable et efficace entre des moyens pilotés et non pilotés, à l’instar du Système de combat aérien du futur (SCAF). Dans ces projets, le LNE met au point des méthodes d’évaluation et des métriques de quantification de performance permettant de répondre aux enjeux de contrôle de ces systèmes.

Une nouvelle branche des sciences de la mesure

L’évaluation des systèmes intelligents nécessite une méthodologie adaptée, permettant de quantifier leurs performances, de qualifier leurs capacités fonctionnelles et de caractériser leurs environnements de fonctionnement. Il s’agit aussi d’évaluer leur conformité à la réglementation, notamment à ses exigences d’ordre éthique : transparence, explicabilité, loyauté... Tout cela repose sur la définition de référentiels reconnus et partagés intégrant des critères tangibles, mesurables et opposables appelés « métriques », ainsi que sur des bases de données et protocoles de mesure. Une tâche complexe en raison des spécificités de l’IA : mesure de l’indicible, évolution dans des environnements ouverts, capacités d’apprentissage.

Solutions : ouverture et partage

Une gouvernance internationale de l’IA nécessiterait par ailleurs de mettre en commun les résultats des évaluations menées ici et là. De plus en plus de pays déploient leurs propres instituts de sûreté IA (ou AISIs, pour AI Safety Institutes), en lien avec leur gouvernement et des acteurs à la pointe de la technologie ; ce qui permet à la fois de recenser les risques émergents et de créer des bacs à sable réglementaires. Il s’agirait de partager leurs résultats, autant entre eux qu’avec les nations les moins dotées. Avec, à la clé, la création de référentiels d’évaluation internationaux au service de relations économiques  fondées sur la confiance.

La France se place désormais sur cette trajectoire, notamment à travers la récente signature d’un partenariat entre Inria et le LNE. Objectif : donner naissance à un centre d’évaluation, menant des activités de recherche, d’expérimentation et de contrôle au meilleur niveau mondial. Centre qui pourrait constituer le premier noyau d’un institut de sûreté français. 

Image
Plateforme d'évaluation de l'intelligence artificielle
Plateforme d'évaluation LE.IA

Dans ce contexte, avec ses plateformes d’essais et son ouverture sur l’Europe (via le programme TEF), le laboratoire d’évaluation LE.IA du LNE constitue un atout hors-pair. Sans oublier l’expertise du LNE en challenges, ces campagnes d’évaluation qui comparent simultanément les performances de plusieurs solutions. Inria et le LNE préparent d’ailleurs l’organisation d’un premier challenge sur l’IA à usage général, dont le kick-off est prévu lors du sommet de février 2025. Comportant des défis à la fois sur des tâches génériques et sur des tâches spécifiques, ce challenge de trois ans sera plus ambitieux que ceux déjà organisés par le LNE. Il sera aussi pleinement ouvert sur l’international, avec des participants recrutés hors de nos frontières.

Promouvoir aussi l’IA à la française

Mettre en place une gouvernance mondiale pour créer un modèle équitable n’efface en rien les enjeux économiques et la quête de leadership technologique. Pour faire de la France une puissance incontestée en IA,  Emmanuel Macron a annoncé un nouveau plan à la veille du salon Vivatech 2024, avec notamment un investissement de 400 millions d’euros dans 9 clusters d’excellence pour doubler le nombre de spécialistes formés chaque année. Le nouveau centre d’évaluation porté par Inria et le LNE s’inscrit dans cette dynamique. LE.IA met déjà à la disposition de l’écosystème académico-industriel de l’IA un ensemble unique de moyens d’essais. Sa polyvalence et son caractère évolutif permettront à terme d’accompagner une grande diversité de besoins sectoriels. De quoi contribuer à la vitalité de la recherche et à la compétitivité du pays.

Standards : le vœu de règles communes, sans distorsion

Enfin, dans le domaine de l’IA à usage général, les questions de réglementation et de normalisation ne sont pas les moindres ni les moins complexes. D’abord parce que cette technologie intègre des valeurs, donc du culturel, dans sa conception-même. Ensuite parce que, outre les enjeux économiques, les objectifs politiques diffèrent d’une zone géographique à l’autre.

Avec l’AI Act, orienté vers la confiance et l’innovation, l’Union européenne a fait figure de précurseur, comme avec le RGPD : le texte constitue la première loi globale sur l’IA au monde. S’il n’a été approuvé qu’en 2024, ralenti par sa révision face au boom de l’IA à usage général, il a été présenté pour la première fois en 2021. Il classe les IA selon leur niveau de risque en termes de droits fondamentaux et de sécurité, tout en veillant à promouvoir l’innovation : risque inacceptable, élevé, IA à usage général, risque limité, minimal.

L’application de l’AI Act sera effective dès 2026 pour la plupart des catégories de risques, sauf exceptions : notamment le risque inacceptable (délai de 6 mois après la publication au Journal Officiel, en mai 2024) et l’IA à usage général (12 mois). Pour l’anticiper, le LNE a mis à la disposition des entreprises, dès 2021, le tout premier référentiel de certification des processus de développement des IA. En complément, il peut certifier leurs systèmes de management de l’IA selon la norme ISO 42001.

Reste à savoir comment convergeront l’AI Act et les autres lois à travers le globe afin d’établir des normes internationales. Et il est un peu tôt pour le dire… Si Joe Biden a signé en 2023 un décret enjoignant les entités fédérales à mettre en œuvre des lignes directrices sur l’IA, aucune loi d’envergure n’existe aujourd’hui aux Etats-Unis. Un groupe de travail parlementaire et bipartisan vient juste d’être chargé d’étudier une législation fédérale permettant de conserver le leadership technologique, tout en envisageant des garde-fous capables de « protéger la nation contre les menaces actuelles et émergentes ». De son côté, la Chine accélère la création de règles sur l’IA générative, avec des enjeux éthiques mais aussi de stabilité sociale et de contrôle de l’Etat, tout en encourageant l’innovation pour challenger la domination américaine. La course au leadership réglementaire est lancée…

 

[dossier publié en juillet 2024] 


Sources 

  1. Grand View Research : Artificial Intelligence Market Size, Share & Trends Analysis Report By Solution, By Technology (Deep Learning, Machine Learning, NLP, Machine Vision, Generative AI), By Function, By End-use, By Region, And Segment Forecasts, 2024 - 2030
  2. McKinsey : enquête annuelle sur l’état de l’IA
  3. Boston Consulting Group : AI At Work: What People Are Saying
  4. IMFBlog : L’IA transformera l’économie mondiale. Faisons en sorte que l’humanité y soit gagnante
  5. PwC : Baromètre mondial de l’emploi en IA 2024
  6. OpenAI :GPT-4 Technical Report (pdf)
  7. Argentine, Australie, Belgique, Brésil, Canada, République tchèque, Danemark, France, Allemagne, Inde, Irlande, Israël, Italie, Japon, République de Corée, Mexique, Pays-Bas, Nouvelle-Zélande, Pologne, Sénégal, Serbie, Singapour, Slovénie, Espagne, Suède, Turquie, Royaume-Uni, Etats-Unis, Union européenne.
  8. Elysée : Intervention du président de la République en visioconférence à l’occasion du Sommet sur l’intelligence artificielle de Séoul
  9. Le Rapport scientifique international sur la sécurité de l’IA avancée
  10. HAI - Université de Stanford : 2024 AI Index Report

 

See also...