Terrorisme : Bruxelles hausse le ton face aux géants du net

Terrorisme : Bruxelles hausse le ton face aux géants du net
Réglementaire

terrorisme-bruxelles-geants-net

La Commission Européenne prépare une directive qui contraindra les géants du net à supprimer tout contenu lié au terrorisme dans l’heure qui suit sa publication. Pour l’instant, le délai était de 24 heures, et il n’est pas toujours respecté…

La Commission Européenne a décidé de passer à la manière forte pour supprimer d’Internet, le plus rapidement possible, les contenues illégaux, notamment ceux liés au terrorisme. Un texte sera présenté au mois de septembre, qui laissera un laps de temps d’une heure aux géants du net entre le signalement d’un contenu de ce type et sa suppression. En cas de retard, de fortes amendes pourraient être prononcées.

Pas de « complaisance face à un phénomène aussi sombre et destructeur »

Les grandes plateformes Internet vont devoir revoir leurs plans et améliorer rapidement leur réactivité face à ces contenus faisant l’apologie du terrorisme. Dès le mois de mars, Bruxelles avait publié un communiqué évoquant ce délai d’une heure, car ce type de contenu « est le plus préjudiciable au cours des premières heures de sa parution en ligne ».

Le commissaire européen en charge de la sécurité, Julian King, a déclaré au Financial Time que Bruxelles « n’avait pas assez progressé » dans la lutte contre les contenus liés au terrorisme. « Nous ne pouvons pas nous permettre de faire preuve de complaisance face à un phénomène aussi sombre et destructeur » a asséné le commissaire.

Une réponse à l’échec de l’autorégulation

Ce projet de texte contraignant, que la Commission voulait éviter, remplacera le « code de conduite » adopté en mai 2016 par Dailymotion, Facebook, Google+, Instagram, Microsoft, Snapchat, Twitter et YouTube. L’ensemble de ces sociétés s’étaient engagé, à l’époque, à former du personnel dédié à la lutte contre les textes, photos et vidéos faisant l’apologie du terrorisme, afin que « la majorité des signalements valides puissent être examinés en moins de 24 heures ».

Les services européens ont effectué des statistiques sur la réactivité des géants du net, qui démontrent que ces derniers « suppriment en moyenne 70 % des discours haineux illégaux qui leur sont notifiés et dans plus de 80 % des cas, les suppressions ont lieu dans les 24 heures ».

20% des contenus illégaux sont actuellement supprimés en plus de 24 heures !

Cela signifie, d’une part, que 30% des contenus signalés ne sont pas supprimés, ce qui signifie que la modération des plateformes estime qu’ils ont été signalés à tort et n’ont rien d’illégal ou de dangereux – c’est typiquement le cas d’une discussion où le terrorisme est simplement évoqué ou d’une plaisanterie sur le sujet, mal interprétées par des internautes.

Mais ces chiffres indiquent, surtout, que 20% des contenus litigieux mettent plus de 24 heures à être supprimés. La Commission Européenne estime donc que les efforts d’autorégulation des géants du net sont insuffisants, et qu’ils doivent rapidement changer de stratégie.

Poser un cadre contraignant en conservant la limite des 24 heurs auraient déjà demandé une amélioration de la réactivité pour éviter les amendes, mais réduire ce délai à une heure est comme un uppercut pour les plateformes Internet. D’autant que cette règle s’appliquera à tous, sans distinction ou exception.

Vers une modération « à la sulfateuse » qui supprimera des contenus légaux ?

Si, sur le principe, la fermeté de Bruxelles se comprend et est à saluer, cette mesure risque d’avoir un effet pervers. Car, pour tenir de tels délais, les géants du net n’ont que trois solutions : la première est de recruter massivement dans leurs services de modération – vu le coût de la main d’oeuvre et la volonté de ces groupes de limiter au maximum leurs salariés, peu de chances qu’ils choisissent cette voie.

La seconde est de conserver des équipes de modération majoritairement humaines, mais de les faire travailler sans réfléchir, à la chaîne. La troisième est de remplacer une majorité de la modération par des intelligences artificielles supprimant automatiquement les contenus qu’elles jugent illégaux – les humains ne prenant le relai que dans des cas où l’IA ne serait pas certaines du caractère dangereux du contenu.

Ces deux dernières solutions présentent un risque important de suppression quasi automatique de tout contenu signalé, quand bien même il n’aurait rien d’illégal et se contenterait d’évoquer le terrorisme ou de plaisanter dessus. Une modération « à la sulfateuse » en somme…