IA : pour la gendarmerie nationale, « le sujet de la souveraineté est central »

IA : pour la gendarmerie nationale, « le sujet de la souveraineté est central »
Innovation

La gendarmerie nationale française s’est saisie très tôt du sujet de l’intelligence artificielle (IA), tant pour répondre aux menaces liées à ces technologies que pour développer des outils ad hoc améliorant son efficacité opérationnelle. Sa chargée de mission Ysens de France est revenue, dans un entretien récent, sur ces problématiques-clés pour l’institution française.

Ysens de France est chargée de mission en intelligence artificielle au sein de la gendarmerie nationale, sous l’autorité du général de brigade Patrick Perrot, coordinateur national pour l’IA. Elle a accordé le 28 juillet 2023 un entretien à l’Usine digitale, où elle revient longuement sur la place de l’IA dans la stratégie de la gendarmerie nationale.

Soutenir la lutte contre la pédocriminalité avec l’IA

Elle y dévoile notamment plusieurs projets de recherche sur lesquels travaille l’équipe de 25 personnes composant le département IA de l’institution. L’un d’entre eux a ainsi permis de répondre au besoin, pour les équipes chargées de lutter contre la pédocriminalité, de réduire leur exposition à des images choquantes.

« L’objectif a donc été de les soulager psychologiquement, en mettant en place une IA qui puisse traiter ces images, puis de faire en sorte qu’il y ait moins de pédocriminalité dans l’espace numérique », expose Ysens de France.

Le speech-to-text, une avancée utile et salutaire

Les équipes de la gendarmerie nationale travaillent sur une cinquantaine de projets en R&D utilisant l’IA, que ce soit pour détecter les fraudes (usurpations d’identité, deepfakes…) ou pour analyser des images ou des vidéos afin d’y détecter des éléments problématiques ou des détails liés à un délit.

Mais le projet le plus immédiatement utile n’est pas le plus disruptif a priori : il s’agit d’un outil de speech-to-text, permettant de retranscrire automatiquement la voix à l’écrit, notamment dans le cas d’un dépôt de plainte. « Ce n’est pas sensationnel mais c’est révolutionnaire pour le gendarme qui gagne du temps et peut être plus à l’écoute d’une victime », se félicite Ysens de France.

La souveraineté au cœur des projets IA de la gendarmerie nationale

La chargée de mission évoque également l’aspect réglementaire nécessaire aux solutions de ce type. « On ne peut rien déployer, rien expérimenter sans que ça passe par un service dédié à la conformité. Et pour les projets les plus sensibles, cela peut durer un an et demi à deux ans. C’est très long », note-t-elle.

La gendarmerie doit aussi impérativement s’attacher à un traitement des données, surtout les plus sensibles, qui respecte pleinement le RGPD. « L’institution va privilégier un développement en interne, justement pour des raisons de traitement de données car le sujet de la souveraineté est central. (…) Tout est stocké en interne, il n’y a pas de données qui partent ailleurs que chez nous », affirme Ysens de France.

États-Unis et Union européenne planchent sur des cadres réglementaires éthiques pour l’IA

Le développement de l’IA pose également d’intenses questions éthiques, au cœur des préoccupations des législateurs européens, qui finalisent un AI Act visant à poser un cadre réglementaire très précis sur les usages de l’IA, et qui devrait être adopté d’ici la fin de l’année 2023.

Aux États-Unis, Chuck Schumer, chef de la majorité démocrate au Sénat, a indiqué cet été que les États-Unis envisageaient de se doter, eux aussi, d’une législation encadrant l’IA. Les géants du secteur, craignant d’être pris en tenaille par des législations trop contraignantes, sont d’ailleurs déjà montés au créneau pour indiquer leur volonté de s’autoréguler.

Amazon, Anthropic, Google, Inflection, Meta, Microsoft et OpenAI ont ainsi récemment accepté de respecter « trois principes qui doivent être fondamentaux au développement de l’intelligence artificielle (IA), soit la sûreté, la sécurité et la confiance« , selon une déclaration de la Maison Blanche ce 21 juillet.

Du « compromis dans la performance »

Fort logiquement, cette question s’invite aussi dans la réflexion de la gendarmerie nationale. « L’éthique nous oblige à toujours maîtriser cette technologie, de ne pas lui donner de capacité de décision, de maîtriser son apprentissage, de faire ce que nous, techniciens, appelons du compromis dans la performance », précise Ysens de France.

« On va maîtriser le plus possible ces technologies au moment du développement justement pour maîtriser les erreurs qui peuvent être faites et les biais qui peuvent exister. C’est la raison pour laquelle on expérimente dans les conditions réelles et qu’on ajuste en fonction afin d’assurer le contrôle humain », conclut-elle.