Du Deepfake Porn à DeepNude : l’impunité insoutenable de la misogynie 2.0

Du Deepfake Porn à DeepNude : l’impunité insoutenable de la misogynie 2.0
À la Une

Si la pullulation des Fake News sur le web vous faisait déjà progressivement perdre foi en l’humanité, attendez que la démocratisation des « Deepfakes » n’arrive sur les réseaux sociaux.

Le Deepfake est une pratique de trucage utilisant l’intelligence artificielle et qui consiste à superposer des images et/ou des vidéos existantes sur d’autres images et/ou vidéos. L’utilisation de cette pratique, présentée en 2016, est surtout associée aux vidéos montrant, de manière très réaliste, le visage d’un individu collé sur le corps d’une autre personne.

La première étape vers cette démocratisation des deepfakes s’appelle « DeepNude » et promet de vous laisser un goût amer en particulier si vous êtes une femme, puisque cette application ne vise étrangement que la gent féminine.

DeepNude ou comment déshabiller une femme sans son consentement

DeepNude a été lancée en fin juin 2019 sous la forme d’un site internet proposant une démonstration du fonctionnement de l’application, ainsi qu’une mise à disposition des versions Windows et Linux de cette dernière en téléchargement. L’application permet de créer, à partir d’une photo d’une femme habillée, une photo truquée de cette même femme entièrement nue apparemment assez réussie pour être crédible.

La version gratuite de cette application appose un large filigrane sur la photo truquée. Il faudra payer 45 euros pour avoir la version professionnelle et obtenir les photomontages sans ce filigrane, avec toutefois une mention « FAKE » qui apparaît dans le coin supérieur gauche de la photo… Autrement dit, vu la facilité avec laquelle il est possible de rogner cette mention hors de la photo truquée, cela ressemble plus à une mesure de protection des propriétaires de l’application pour se dédouaner sur le plan légal qu’à une tentative de conserver une certaine éthique.

Un algorithme opensource pour une humiliation publique

Le logiciel de DeepNude utilise un algorithme opensource appelé pix2pix, développé par des chercheurs de l’Université de Californie à Berkley en 2017. Cet algorithme, qui fonctionne en se basant sur un ensemble de données photographiques, est proche de ce qui est utilisé pour la création des vidéos deepfakes.

Dans le cas de DeepNude, il se base  sur une base de données de plus de 10 000 photos… de femmes uniquement. Car si vous tentez de dénuder un homme, vous vous retrouverez avec un résultat montrant une vulve au lieu d’un pénis. Selon le créateur de l’application, cela s’expliquerait par le fait que les photos de femmes dénudées sont beaucoup plus nombreuses – et donc plus faciles à trouver –  que celles d’hommes dénudés sur la toile. Et si cette explication peine à convaincre, le créateur étoffe sa défense en annonçant son intention de créer une version masculine de l’application.

Une dimension misogyne indéniable

Difficile pourtant de ne pas voir là une énième manifestation de l’un des maux qui gangrènent les réseaux sociaux, au même titre que le racisme ou l’homophobie, à savoir la misogynie. Car les seules victimes de ces photomontages sont bien les femmes, elles qui représentent déjà l’essentiel des victimes du Revenge Porn, cette pratique ignoble qui consiste à publier sur le web, en signe de vengeance, des photos et/ou vidéos à caractère intime de femmes par leurs ex-compagnons après une rupture amoureuse mal vécue.

De même, les femmes sont encore une fois les premières victimes de cette autre pratique appelée Deepfake Porn, qui vise à coller les visages en mouvement de femmes non consentantes sur les corps d’autres femmes ayant tourné dans des vidéos à caractère pornographiques. Ces vidéos, dont le réalisme peut parvenir à choquer et décontenancer les victimes elles-mêmes, sont ensuite publiées par la suite sur des sites ou parfois même sur les réseaux sociaux.

Ce qui semble vrai a plus de poids que ce qui l’est vraiment

Avec DeepNude, il semblerait que le champ des possibilités du Revenge Porn soit encore un peu plus ouvert avec, cette fois, la capacité offerte de publier aisément des photos intimes fabriquées de toutes pièces. A défaut d’être authentiques, ce dernières peuvent néanmoins être tout autant dommageables pour les victimes à cause de leur crédibilité apparente.

Car si les Fake News ont révélé une chose ces dernières années, c’est que ce qui semble vrai a souvent plus de poids que ce qui ne l’est réellement dans nos sociétés actuelles. Et la dernière chose dont les femmes ont besoin aujourd’hui c’est d’une arme supplémentaire pour faire grossir le nombre déjà terriblement conséquent des victimes de Revenge Porn.

Heureusement, DeepNude a ses limites. Les versions disponibles – gratuite et payante – n’offrent pas encore à l’heure actuelle des résultats systématiquement assez poussés pour que l’illusion soit parfaite. Les nombreux tests effectués sur l’application révèlent que pour obtenir un résultat assez crédible, il faut utiliser une photo originale en haute résolution d’une femme en bikini et avec un bon éclairage. Sans ces conditions, le résultat semble très approximatif et la supercherie facilement détectable.

Un logiciel misogyne à la portée de monsieur Tout-le-monde

Mais ce qui est le plus effrayant, c’est la facilité avec laquelle ces résultats peuvent être obtenus sans expertise ou connaissances particulières dans le domaine de la retouche photographique. Car les résultats obtenus sont similaires à ce qu’un utilisateur averti du logiciel Photoshop pourrait obtenir, mais de manière beaucoup plus rapide et complètement automatisée.

Contrairement aux Deepfakes et Deepfake Porn qui requièrent une certaine expertise dans leur exécution, l’utilisation de DeepNude est, quant à elle, à la portée de monsieur Tout-le-monde. Et une fois le logiciel perfectionné au point de faire illusion à partir de photos originales de moins bonne qualité, cette démocratisation pourrait s’avérer dévastatrice pour les femmes.

Un manque d’implication des pouvoirs publics pour la défense des femmes

Il est assez alarmant de constater que l’urgence de la protection des premières victimes concernées passe quelque peu au second plan au profit de la menace politique que représentent ces nouvelles technologies, en particulier pour les prochaines élections présidentielles américaines qui auront lieu l’année prochaine. Une psychose totalement légitime quand l’on se remémore l’impact des Fake News sur les campagnes des candidats lors de l’élection de 2016.

Toutefois, il semble assez évident qu’il ne devrait pas y avoir de hiérarchisation parmi les victimes potentielles ou effectives. Et si la menace politique plane, la menace misogyne, elle, est déjà bien réelle pour de nombreuses femmes qui se sentent abandonnées par un système qui ne semble pas trouver urgent de trouver des solutions pour palier le fait que ces nouvelles technologies passent légalement entre les mailles du filet.

Un sentiment d’impunité qui conduit à la censure

Car les femmes concernées par ces abus semblent avoir un nombre limité de recours pour réussir à faire retirer ces photos ou vidéos de la toile. Entre le coût des procès, le processus d’identification de la ou des personnes contre qui porter plainte, et la protection légale dont jouissent les plateformes de réseaux sociaux qui hébergent ces contenus (sans compter la pérennité sur le web de ces contenus qui, une fois retirés, tendent à réapparaitre systématiquement ailleurs), beaucoup de femmes se résignent, impuissantes.

Certaines femmes en viennent donc à censurer le contenu qu’elles postent en ligne, de peur qu’il ne soit utilisé contre elles à nouveau dans d’autres vidéos ou photos, en particulier si ces dernières ont une carrière qui en font des personnalités publiques. Ces outils sont ainsi sciemment utilisés comme des moyens de faire taire les femmes, de les brider et les censurer.

Et cette impunité apparente a pour conséquence l’apparition de plateformes comme des moteurs de recherche de photos permettant à un utilisateur de télécharger des photos de femmes afin de trouver des photos d’actrices pornographiques aux traits similaires et ainsi faciliter les échanges de visages. D’autres plateformes proposent des forums dédiés au Deepfake Porn où il est possible de payer des spécialistes pour obtenir des vidéos pornographiques incluant le physique des femmes de leurs choix, qu’elles soient des stars, des personnalités publiques, des influenceuses ou des femmes qu’ils fréquentent dans la vraie vie.

Un DeepNude de perdu, dix de retrouvés

DeepNude a rapidement été retiré de la vente suite au (bad ?) buzz suscité par la mise à disposition de l’application, ses créateurs déclarant que « le monde n’était pas encore prêt », et qu’ils ne souhaitaient pas faire de l’argent de cette manière.

Trop tard évidemment, le mal était déjà fait. En effet, des copies de l’application sont disponibles un peu partout sur la toile, d’autant plus que l’équipe de DeedpNude a elle-même rendu l’algorithme public sur Github, plateforme de développement de logiciel appartenant à Microsoft (tout code associé à DeepNude a depuis été banni de la plateforme).

Reste maintenant aux autorités concernées de prendre les mesures nécessaires afin de protéger les femmes de ces pratiques et de leurs conséquences souvent désastreuses. Trouver des mesures légales applicables afin de briser l’impunité sur le web pour les créateurs de ces technologies et les plateformes qui les hébergent doit être une priorité, avant que la démocratisation inexorable de ces pratiques n’ait atteint un point de non-retour, si ce n’est pas déjà le cas…