Algorithmes de recommandation : la Cour Suprême US face aux contenus djihadistes

<em>Algorithmes de recommandation : la Cour Suprême US face aux contenus djihadistes</em>
Réglementaire

La Cour Suprême américaine a commencé, ce 21 février 2023, l’analyse de des plaintes de deux familles de victimes d’attentats contre Google, Facebook et Twitter. Elles reprochent à ces plateformes d’avoir, via leurs algorithmes de recommandation, mis en avant des contenus djihadistes, et donc favorisé la radicalisation des terroristes. Entre liberté d’expression et nécessaire régulation, ce débat est aujourd’hui crucial.

Deux familles de victimes d’attentats djihadistes ont porté plainte auprès de la Cour suprême des États-Unis contre Google, Facebook et Twitter. Il s’agit de la famille de Nohemi Gonzalez, une étudiante américaine assassinée sur la terrasse du Carillon lors des attentats du 13 Novembre à Paris, et de celle de Nawras Alassaf, un Jordanien tué par l’État islamique à Istanbul en 2017, le soir du Nouvel an.

Google, Facebook et Twitter accusé devant la Cour suprême d’avoir favorisé les contenus djihadistes

Les familles reprochent aux plateformes de ces géants du net d’avoir favorisé la radicalisation des djihadistes responsables de ces attentats par des contenus recommandés. La Haute autorité US a commencé à étudier cette plainte, depuis le 21 février 2023. L’examen devrait prendre plusieurs mois.

Tout l’enjeu est que la loi américaine, en l’occurrence la section 230 du Communications Decency Act (la loi qui fonde la régulation d’Internet outre-Atlantique) déresponsabilise les plateformes pour les contenus qu’elles hébergent.

L’angle des algorithmes de recommandation

Les plateformes ne sont pénalement responsable d’un contenu illégal que i elle ne fait rien pour le retirer alors qu’il a été signalé. que si ce caractère illégal leur a été signalé, et qu’elles n’ont rien fait pour retirer ces contenus. L’angle d’attaque des plaignants est donc légèrement différent : les familles reprochent aux algorithmes de recommandation de Google, Facebook et Twitter d’avoir mis en avant ces contenus.

« Cela revient à dire que les plates-formes ne sont pas responsables du contenu posté par l’EI, mais qu’elles sont responsables des algorithmes de recommandation qui ont promu ce contenu », détaille Daphne Keller, directrice du programme de réglementation des plateformes au Cyber Policy Center de Stanford (Californie).

Une affaire qui divise la société

L’affaire intéresse de très près la société américaine. Les associations de défense des libertés ont peur qu’un jugement trop restrictif limite la liberté d’expression. Toutes les plateformes utilisant des algorithmes sont également inquiètes pour leur modèle économique.

Cela étant, la question est aujourd’hui fondamentale : le pouvoir de Google, Facebook et Twitter sur l’opinion publique, la vision du monde, l’idéologie et les idées de la population mondiale est démesuré. Il impose nécessairement des garde-fous et des régulations.

Maximiser le temps passé sur les plateformes se fait souvent au détriment de la sécurité des contenus

Sans contrainte, leur politique a toujours été de maximiser le temps passé sur leurs plateformes respectives, y compris en mettant en avant les contenus les plus clivants, polémiques, appelant à la haine, et même dangereux. Le peuple rohingyas a ainsi porté plainte contre Facebook pour avoir favorisé le génocide dont il a été victime, en ne modérant pas assez les contenus appelant à les massacrer.

Les affaires de ce type, révélées notamment par les Facebook Files, sont légions, et le cas des contenus djihadistes est assez représentatifs. Ils révèlent une irresponsabilité des plateformes en ligne, qui se drapent dans leur position de simple hébergeur de contenus pour refuser d’admettre qu’elles laissent par défaut promouvoir des contenus dangereux.

Facebook aurait même changé son algorithme, à la fin des années 2010, pour qu’il devienne encore plus clivant, et pousse les utilisateurs à rester encore plus longtemps, générant autant de revenus publicitaires.

Une nécessaire régulation

Au-delà, la question est bien celle de l’opacité absolue de ces algorithmes et de leur absence totale de contrôle et de régulation. Devant le pouvoir qu’ils ont aujourd’hui, cette situation ne peut plus durer.

Même le Digital Service Act de l’Union européenne tape un peu à coté. Cette loi veut forcer les plateformes à signaler les contenus illicites et procéder rapidement à leur retrait, ce qui est nécessaire mais pas suffisant. Elle oblige certes à une audition des algorithmes, mais sans imposer des mécanismes empêchant la mise en avant de contenus dangereux.

Certes, aujourd’hui, toucher à ces algorithmes revient à fracasser le modèle économique de ces hébergeurs. Mais la sécurité mondiale vaut bien ce prix, non ?