Intelligence Artificielle : l’Union Européenne à la pointe de la régulation

Intelligence Artificielle : l’Union Européenne à la pointe de la régulation
Réglementaire

Le développement de l’Intelligence Artificielle (IA) impose la mise en place d’une régulation stricte et claire, pour éviter dérives et biais. En la matière, l’Union Européenne fait figure de pionnière. Le Parlement Européen a ainsi récemment adopté trois rapports sur le sujet, dans l’optique de présenter fin 2020 un texte encadrant les utilisations de l’IA.

L’IA est l’une des technologies dont la croissance est la plus forte. Elle pose pour autant de nombreuses questions, notamment d’ordre éthique, car elle nécessite des normes d’apprentissage strictes pour éviter tout biais, et porte en elle des risques importants – les fans d’Isaac Asimov le savent bien !

L’Union Européenne veut imposer une prompte régulation de l’Intelligence Artificielle

Dès lors, une régulation semble indispensable. Si les géants du net, Amazon en tête, ont généreusement proposé des cadres d’utilisation, le politique doit rapidement s’emparer de cette problématique. L’Union Européenne a notamment affiché sa volonté de présenter, d’ici fin 2020, un texte législatif sur le sujet.

« Nous voulons que l’application de ces nouvelles technologies soit digne de la confiance de nos citoyens […] Nous encourageons une approche responsable de l’IA centrée sur l’homme », avait ainsi exposé Ursula von der Leyen, présidente de la Commission Européenne, en février 2020.

Une nouvelle étape a été franchie, début octobre 2020, dans cette ambition, avec l’adoption, par la Commission Juridique du Parlement Européen, de trois rapports d’initiative législative, respectivement sur le cadre éthique de l’IA, le régime de responsabilité civile à y adosser et les droits de propriétés intellectuelles à clarifier.

Trois rapports d’initiative législative

Le premier, signé d’Iban García del Blanco, « invite la Commission européenne à présenter un nouveau cadre juridique pour les principes éthiques à utiliser lors du développement, du déploiement et de l’utilisation de l’IA, de la robotique et des technologies connexes dans l’UE, y compris les logiciels, les algorithmes et les données ».

Le second, d’Axel Voss, « appelle à l’adaptation d’un cadre de responsabilité civile tourné vers l’avenir, avec une responsabilité stricte pour les IA à haut risque, ce qui encouragerait l’innovation en offrant aux entreprises une sécurité juridique, et renforcerait la protection des citoyens et leur confiance dans les technologies de l’IA en dissuadant les activités à risque ».

Et le troisième, de Stéphane Séjourné, « souligne que la question clé de la protection des droits de propriété intellectuelle dans le contexte de l’AI n’a pas été abordée jusqu’à présent par la Commission européenne et demande une étude d’impact sur la question ».