Ethique de l’IA : l’Union Européenne vers un cadre réglementaire de référence

Ethique de l’IA : l’Union Européenne vers un cadre réglementaire de référence
Réglementaire

L’Union Européenne est consciente du rôle-clé qu’elle doit jouer dans la régulation mondiale de l’Intelligence Artificielle (IA), notamment face à des visions américaines et chinoises discutables au niveau éthique. Elle a donc récemment présenté un règlement encadrant les utilisations de l’IA pour la rendre « digne de confiance » et conforme aux valeurs de l’Union. Le texte définira notamment quatre niveaux de risques éthiques. Revue de détails.

L’Union Européenne arrive au terme d’une réflexion de fond sur la nécessité de réguler les usages de l’IA, lancée en 2018. Les experts européens sont partis du constat que, si les applications s’appuyant sur l’IA ne cessaient de se multiplier, c’était le plus souvent sans aucun organe de contrôle éthique pour les encadrer.

L’Union Européenne veut défendre une approche éthique de l’IA différente de la Chine et des Etats-Unis

D’une certaine façon, ce qui se joue en Europe actuellement concerne le monde entier. En effet, si l’Union Européenne veut devenir la championne d’une approche éthique de l’IA, respectueuse des droits humains fondamentaux, c’est pour son propre territoire, mais aussi pour inspirer les législations d’autres pays.

Elle entend en cela se démarquer des deux autres géants de cette technologies, la Chine et les Etats-Unis. Pékin a déjà largement franchi la ligne jaune en utilisant l’IA pour faciliter le fichage des citoyens, et les Etats-Unis ont pour l’heure plutôt tendance à laisser les acteurs technologiques définir leurs propres normes. Ce qui est plutôt inquiétant quand on voit comment Google a récemment traité les responsables de son département dédié à l’éthique dans l’IA

Vers un « RGPD » pour l’IA ?

Dès lors, de nombreux analystes estiment que l’Union Européenne peut se poser en championne internationale d’une utilisation éthique de l’IA, comme elle l’a su faire avec la protection des données. Le RGPD est en effet devenu une référence internationale sur la question, qui a inspiré de nombreuses législations locales.

La Commission Européenne est parfaitement consciente de ces enjeux : « en établissant les normes, nous pouvons ouvrir la voie à une technologie éthique dans le monde entier, tout en préservant la compétitivité de l’UE », pointe ainsi Margrethe Vestager, vice-présidente de la Commission.

L’Union Européenne présente son projet de règlement pour une IA éthique

L’Union Européenne a donc présenté, ce 21 avril 2021, un projet de règlement sur l’IA, afin qu’elle soit « digne de confiance » et, surtout, conforme aux valeurs et règles de l’Union européenne.

Dès 2019, le groupe d’experts mandatés par la Commission dégageaient sept grands principes pour une IA éthique, détaillés par nos collègues de Numerama :

  • Facteur humain et contrôle humain  : les systèmes d’IA devraient être les vecteurs de sociétés équitables en se mettant au service de l’humain et des droits fondamentaux, sans restreindre ou dévoyer l’autonomie humaine.
  • Robustesse et sécurité  : une IA digne de confiance nécessite des algorithmes suffisamment sûrs, fiables et robustes pour gérer les erreurs ou les incohérences dans toutes les phases du cycle de vie des systèmes d’IA.
  • Respect de la vie privée et gouvernance des données : il faut que les citoyens aient la maîtrise totale de leurs données personnelles et que les données les concernant ne soient pas utilisées contre eux à des fins préjudiciables ou discriminatoires.
  • Transparence : la traçabilité des systèmes d’IA doit être assurée.
  • Diversité, non-discrimination et équité : les systèmes d’IA devraient prendre en compte tout l’éventail des capacités, aptitudes et besoins humains, et leur accessibilité devrait être garantie.
  • Bien-être sociétal et environnemental : les systèmes d’IA devraient être utilisés pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique.
  • Responsabilisation : il convient de mettre en place des mécanismes pour garantir la responsabilité à l’égard des systèmes d’IA et de leurs résultats, et de les soumettre à une obligation de rendre des comptes.

Quatre niveaux de risques pour les projets d’IA

Le projet reprend cette classification, mais il définit aussi quatre niveaux de risques, allant avec quatre niveau d’encadrement : minime, limité, élevé et inacceptable. Les usages « inacceptables » devront être totalement interdits au sein de l’Union, ceux avec un risque « élevé » devront être sévèrement encadrés.

Les usages « inacceptables » sont notamment les systèmes de notation sociale par les Etats (bonjour, Pékin !), les jouets dotés d’un assistant vocal poussant les mineures à avoir un comportement dangereux, et plus généralement tous les usages qui manipulent le comportement humain ou sont une « menace évidente » pour la sécurité, les droits des personnes et les moyens de subsistance.

Un encadrement précis pour les projets présentant un risque « élevé »

Les usages à risque « élevé » concerne les infrastructures critiques : éducation et formation professionnelle, maintien de l’ordre, services publics et privés jugés essentiels, santé, sujets d’asile, de migration et de contrôle aux frontières, justice, marché du travail et démocratie.

Dans ce domaine, l’Union veut imposer, pour autoriser le recours à l’IA, un enregistrement des activités des algorithmes, une documentation détaillée pour les utilisateurs, des garanties d’un haut degré de sécurité, d’exactitude et de robustesse. L’apprentissage devra se faire avec des données de qualité, pour éviter les biais, notamment sexistes ou racistes. Les logiciels devront tous disposer de leviers d’atténuation en cas de souci et d’un contrôle humain.

Le risque « limité » concerne les usages conversationnels où l’enjeu essentiel est la transparence : les utilisateurs d’un chatbot doivent savoir qu’ils interagissent avec machine avant de continuer. Enfin le risque « minime » recouvre tous les autres usages, soit la majorité des utilisations actuelles de l’IA, au risque quasi nul pour les droits humains.