Temps de lecture : 11 min

Loi « Sécurité globale », pandémie de Covid-19, attentats terroristes, élections américaines… L’actualité récente a montré que l’espace public numérique se trouve désormais au cœur de toutes les controverses politiques, scientifiques ou culturelles qui traversent nos sociétés. Le caractère agonistique de la composante politique de l’internet, loin d’un « marché des idées » où le « meilleur gagne », en fait un terrain de lutte où s’affrontent de multiples acteurs qui tentent d’imposer leur interprétation du monde. Ces acteurs, qu’ils soient des États, des organisations, des groupes informels ou des simples individus, déploient un large éventail de tactiques rhétoriques qui incluent l’argumentation rationnelle mais aussi le marketing, la polémique, le discours haineux, la propagande et la désinformation. Se joue ainsi en ligne une bataille entre des points de vue contradictoires, et souvent incompatibles, qui mobilisent toutes les ressources symboliques, techniques et économiques à disposition.

L’une de ces ressources est le signalement (flagging ou reporting), un mécanisme désormais très répandu, initialement conçu pour permettre aux utilisateurs d’une plateforme en ligne de signaler les contenus contraires à ses règles d’utilisation, offensants et/ou dangereux.

Le signalement comme une arme dans la guerre de l’opinion

Cette fonction est surdéterminée par la politique de chaque plateforme. Par exemple, Twitter est beaucoup plus tolérant qu’Instagram et Facebook quand il s’agit des contenus pornographiques. De même, la définition précise d’un contenu litigieux est problématique, y compris pour les plateformes les plus restrictives, comme en témoigne la polémique persistante concernant le critère de l’obésité qui rentre en ligne de compte dans la modération des images du corps féminin sur Instagram

Cependant, le signalement est souvent instrumentalisé comme une arme dans les guerres d’informations qui se déroulent en ligne, comme le pendant inversé de la propagande. Si cette dernière sert à diffuser une idée ou une information au service d’une stratégie politique, le signalement peut servir à faire taire ses adversaires. Nous sommes donc confrontés à un paradoxe : le même système qui a été mis en place pour protéger les utilisateurs contre les contenus haineux ou frauduleux peut être manipulé pour censurer d’autres utilisateurs. Il devient ainsi une forme particulière de ce que les plateformes qualifient de « comportement inauthentique coordonné » d’un réseau d'utilisateurs et/ou de bots, plus communément appelés « raids ». Ces signalements massifs, souvent coordonnés dans des espaces fermés et non régulés (listes de diffusion, messageries privées), sont méthodiquement dirigés par des gouvernements, des organisations plus ou moins opaques dans le but d’« amplifier ou d’interrompre une conversation », mais aussi de manipuler l’information et de réprimer des opposants politiques. Par exemple, en septembre 2020, un réseau de comptes Facebook et Instagram basés au Pakistan a été suspendu pour avoir signalé en masse des messages critiquant l'islam et la politique étrangère du Pakistan. Les membres de ce réseau avaient utilisé une extension développée pour le navigateur Chrome appelé Auto Reporter, créé dans le but d’automatiser le signalement.

Outre les opérations de signalement « thématiques » de longue durée, il existe également des opérations opportunistes fédérant des collectifs informels qui se regroupent de manière ponctuelle dans le but de censurer des comptes ou des contenus particuliers, notamment de médias ou de journalistes. Le 21 novembre 2020, jour du premier rassemblement à Paris contre la loi « Sécurité globale », le compte Twitter de StreetPress a été temporairement suspendu en raison de la publication d'une vidéo d’un débat au sujet de cette loi où intervenait Mathieu Molard, le fondateur du site. Pour récupérer l’accès à son compte Twitter, StreetPress a été obligé de supprimer cette vidéo. Le même jour, le compte du journaliste Taha Bouhafs a été suspendu également. Les protagonistes ont attribué ces suspensions à des signalements coordonnés, notamment de la part de membres de forces de l’ordre, ce qui n’a pas été confirmé par Twitter. En août 2020, Laurent de Boissieu, journaliste politique à La Croix, avait également vu son compte suspendu quelques heures suite à un tweet sur l’anonymat des comptes Twitter et le droit à l’information. Les signalements sur la plateforme semblent d’ailleurs être en hausse. Twitter avait comptabilisé + 27 % de signalements entre juillet et décembre 2019.

Le même type d’incidents arrive également dans les plateformes de Facebook. En septembre dernier, deux journalistes de Charlie Hebdo — Laure Daussy et Corinne Rey, dite « Coco » — avaient vu leurs comptes Instagram brièvement suspendus après avoir publié la couverture du magazine consacrée à l’ouverture du procès des attentats de janvier 2015. Les journalistes ont affirmé que cela était dû à « un signalement massif, une nouvelle forme de censure ». Instagram France a nié que le nombre de signalements ait eu un impact sur la décision et a plaidé l’erreur d'un modérateur — ce que personne ne peut malheureusement vérifier. Autre exemple récent venu de Grèce : le 22 octobre dernier, le Centre culturel Onassis a posté sur sa page Facebook une photo dans laquelle on voyait la projection sur son bâtiment d’un portrait de Zak Kostopoulos, militant homosexuel et défenseur des droits LGBTI, assassiné à Athènes en 2018. La publication a été suspendue brièvement après un signalement en masse.

Même si les plateformes nient que le nombre de signalements affecte directement leur processus de modération, il est clair qu'il y a un lien entre les deux. On peut supposer qu’il existe un mécanisme automatisé qui bloque un contenu ou un compte signalé massivement le temps qu’un modérateur humain puisse l'examiner. L’utilisation de Twitter par l’assassin de Samuel Paty montre l’intérêt d’une stratégie de ce type, qui ressemble à l’application d’un « principe de précaution » par les plateformes. Mais cette stratégie encourage également le signalement opportuniste et peut potentiellement créer un environnement hostile à l’exercice de la liberté d’expression. D’autant plus qu’elle peut résulter d’un nombre insuffisant de modérateurs humains, arbitres in fine du processus, en raison de leur coût. Le manque de transparence concernant le processus de décision et la tendance des plateformes à faire des modérateurs des boucs émissaires pour expliquer les ratages aggravent la situation.

À l’origine, un dispositif de régulation participatif

La vocation initiale du signalement est à la fois celle d’une solution « participative » au problème de la modération de la masse de contenus générés par les utilisateurs. Elle sert aussi de justification pour les propriétaires de plateformes lorsqu'ils décident de retirer des contenus. Il devient ainsi un mécanisme de gouvernance omniprésent qui résulte d’un enchevêtrement complexe entre logiques techniques (affordances, architectures, algorithmes), humaines (motivations et pratiques des utilisateurs individuels), économiques (modèles d’affaires des plateformes) et sociopolitiques (normes sociales et culturelles, stratégies politiques). En pratique, les dispositifs de signalement arbitrent à la fois la relation entre les utilisateurs et les plateformes et les termes du débat autour de questions publiques controversées.

Ils font partie d’une suite d’outils couramment mis à disposition des internautes pour faciliter mais aussi canaliser, formater et quantifier les réactions des utilisateurs (Like, Retweet, Share, etc.). Chacun permet aux utilisateurs de participer à l'organisation, au classement, à la valorisation et à la visibilisation du contenu de la plateforme. À l’image de ces mécanismes, les dispositifs de signalement ne se contentent pas d'individualiser l’expression des préférences et des préoccupations des internautes, mais ils la transforment en données. Tout comme les utilisateurs sont appréhendés par les plateformes comme des « profils », et leur navigation sur le site comme une suite de traces, leurs signalements sont également appréhendés comme des metrics (Quel contenu signalé par quel utilisateur ? À quel moment ? Combien de signalements en combien de temps ? Depuis quel endroit ? etc.). Ce sont ces données qui sont ensuite transmises aux algorithmes de modération et, in fine, aux modérateurs humains.

Graphique produit par un outil interne de Facebook.
Reconstitution d’un graphique produit par un outil interne de Facebook censé surveiller l’évolution de contenus « incitant à la violence » (violence and incitement trends). Les signalements peuvent servir à construire de tels indicateurs. Source : Buzzfeed.

Une gamme de modération élargie

La procédure de modération de contenu sur les plateformes socionumériques fonctionne comme suit : tout d'abord, une personne publie un contenu, qui est « scanné » par des algorithmes pour détecter toute violation évidente des politiques de chaque plateforme (par exemple des images pornographiques ou des contenus protégés par le droit d’auteur) ; si c'est le cas, le contenu en question est généralement supprimé immédiatement. S’il n’est pas détecté automatiquement et reste en ligne mais qu’il est jugé problématique par certains utilisateurs, ces derniers peuvent le signaler à la plateforme, qui délèguera ensuite à ses modérateurs humains, le plus souvent employés par des prestataires externes, la décision de savoir s'il faut le retirer. Il est possible, à ce stade, de faire à nouveau intervenir des algorithmes pour examiner les données collectées sur les signalements afin d’essayer de détecter s’ils sont « authentiques » ou coordonnés. Si le problème est trop compliqué ou s’il prend de l’ampleur dans les médias, l'affaire est transmise en dernière instance, à des commissions telles que le Conseil Confiance et sécurité de Twitter (Trust and Safety Council) et le Conseil de surveillance de Facebook.

Plus récemment, les plateformes ont élargi leur gamme de méthodes de modération de contenu : au lieu de simplement opérer un choix binaire (supprimer ou conserver quelque chose), elles peuvent désormais avertir les internautes sur les risques que comporte un message tout en le laissant visible, l'empêcher de devenir « viral » en limitant son potentiel de partage ou réduire considérablement sa visibilité en lui attribuant une « pénalité » algorithmique.

Travail gratuit et absence de délibération collective

Le signalement offre ainsi à la fois une force de travail qui participe gratuitement au processus coûteux de modération(1) et une puissante légitimation rhétorique aux plateformes. Lorsqu’elles décident de supprimer ou de conserver un contenu litigieux, elles peuvent prétendre agir au nom de leur communauté d’utilisateurs. Or, si les dispositifs de signalement représentent effectivement une volonté d'écouter les utilisateurs, ils obscurcissent également les rapports de force et les mécanismes contraignants qui les entourent. Pire, les dispositifs de signalement laissent peu de place à l'articulation des préoccupations collectives des utilisateurs, car le dispositif ne permet le plus souvent que l’envoi d’un signalement individuel adressé à la plateforme, sans que l’utilisateur sache ce qu’en pensent d’autres utilisateurs, ni comment son signalement est traité.

Or, les désaccords sur ce qui est offensant ou acceptable sont inévitables lorsqu'un public diversifié rencontre les mêmes objets culturels (une vidéo, une image, un texte). Du point de vue des plateformes, ces désaccords sont perçus comme une nuisance, un grain de sable dans la machine bien huilée de leur business, alors que d’un point de vue politique ils peuvent faire l’objet de négociations délibératives publiques, comme dans le cas de Wikipédia, qui sont essentielles pour la démocratie. Devant l’impossibilité de discuter collectivement et de manière transparente et délibérative de ce qui devrait ou pas être visible dans les plateformes numériques, les utilisateurs sont amenés à mettre en place des tactiques comme les raids, dont l’objectif est de rendre invisibles certains contenus ou comptes que ces utilisateurs trouvent offensants ou avec lesquels ils ne sont pas d’accord. La volonté de réduire au silence devient ainsi en quelque sorte le complément négatif de l’expression de son propre point de vue.

Appel à signaler groupe Facebook Stop the Steal
Exemple d’appel à signaler le groupe Facebook de supporteurs de Trump STOP THE STEAL lancé sur Twitter par des supporteurs de Biden. Le groupe rassemblant plus de 300 000 membres a été supprimé par Facebook trois jours après sa création car il diffusait de la désinformation et des appels à la violence. Capture d'écran.

Hacker le Web 2.0

L’intégration industrialisée de la participation des utilisateurs dans le fonctionnement des plateformes socionumériques (crowdsourcing) n'est pas un phénomène nouveau : elle date de l'avènement du « web 2.0 » à l'aube du XXIe siècle(2). L'une des questions qui s’est très vite posée est celle de la manipulation du système pour servir des objectifs spécifiques. Le « bombardement Google » (Google bombing) a été l’un des premiers incidents de ce type. Il s’agit d’une technique de référencement visant à influencer le classement d’une page dans les résultats du moteur de recherche qui exploite une caractéristique de l'algorithme PageRank. Si plusieurs sites utilisent le même texte pour pointer sur la page, il devient possible de faire apparaître cette page dans les premiers résultats pour ce texte. En 2003 une opération de ce type a réussi à faire en sorte que la page qui présente la biographie officielle de George W. Bush, alors président des Etats-Unis, apparaisse à la première place des résultats quand un internaute faisait une requête avec les termes « miserable failure » (« échec lamentable »). Le même type de phénomène s’est répandu dans toutes les plateformes participatives où les utilisateurs pouvaient laisser un avis négatif sur des produits ou des lieux (restaurants, hôtels etc.). Avec la généralisation des médias sociaux au cours de la dernière décennie, les dispositifs de signalement ont offert la possibilité aux utilisateurs de tenter de manipuler le système de modération de contenu pour influencer le discours politique et même faire taire les voix adverses.

Les plateformes tentent des ajustements

Compte tenu du volume gigantesque de contenu publié chaque jour, il est impossible pour les plateformes de disposer de mécanismes impeccables. Cependant, quand on analyse les dispositifs actuels, on décèle des approches de plus en plus sophistiquées qui tentent de s’adapter aux usages et aux différents types de contenu. Par exemple, quand on signale un contenu sur Twitter, on est invité à sélectionner jusqu'à cinq autres tweets posant un problème similaire qui seront pris en considération lors de l'examen algorithmique et/ou humain du signalement.

Processus de signalement Twitter.
Processus de signalement sur Twitter. Capture d'écran.

De même, YouTube et Twitch permettent aux utilisateurs de sélectionner des horodatages spécifiques pour repérer les passages problématiques dans une vidéo, et de soumettre un rapport détaillé sous forme de texte libre.

Processus de signalement Twitch.
Processus de signalement sur Twitch. Capture d'écran.
Processus de signalement YouTube.
Processus de signalement sur YouTube. Capture d'écran.

De tels mécanismes donnent aux modérateurs un contexte précieux, qui pourrait les aider à prendre des décisions mieux informées. YouTube a également introduit le programme « Trusted Flagger », qui fournit des droits spéciaux à des utilisateurs sélectionnés qui peuvent être des individus mais aussi des agences gouvernementales et des ONG. Les candidats idéaux à cette fonction « disposent d'une expertise reconnue dans au moins un des domaines répertoriés dans le Règlement de la communauté, signalent souvent des contenus avec un taux de fiabilité élevé et sont prêts à échanger régulièrement avec YouTube à propos de divers domaines de contenus de la plate-forme » Facebook, quant à lui, dispose d’une interface qui informe les utilisateurs sur le processus de leur signalement, et où ils peuvent même faire appel de la décision initiale ; néanmoins, l'ensemble du processus est automatisé et il n'y a jamais d'explication claire de la décision, ni de communication directe avec un interlocuteur humain.

Interface Facebook de suivi d'un signalement.
Interface de Facebook de suivi d’un signalement. Capture d'écran.

Les algorithmes d’intelligence artificielle, les modérateurs humains et le signalement des utilisateurs constituent le triptyque de la modération de contenu, qui est l'un des défis les plus exigeants pour la régulation de la liberté d’expression dans la sphère publique numérique. Bien qu'il n'existe pas de panacée pour traiter les contenus nuisibles, les plateformes numériques ont réalisé des progrès significatifs au cours de la dernière décennie en améliorant leurs outils et leurs mécanismes. Mais le processus de prise de décision reste largement opaque et les moyens humains qui y sont consacrés ne sont pas à la hauteur du défi, tandis que la confiance fondée sur des mécanismes de crowdsourcing a fortement diminué. Manipuler les mécanismes de modération du contenu pour censurer une information sur une base idéologique, culturelle et politique est profondément problématique pour les démocraties. Or, les dispositifs de signalement devraient servir à protéger les utilisateurs sans limiter leur liberté d’expression légitime. Il reste donc à développer des processus de modération davantage inclusifs et transparents, mais on en est encore loin.

Mise à jour du 10/12/2020 à 18h35 : ajout des noms des deux journalistes de Charlie Hebdo dont les comptes Facebook avaient été temporairement suspendus.
(1)

Casilli Antonio, En attendant les robots. Enquête sur le travail du clic, Seuil, 2019.

(2)

Franck Rebillard, Le web 2.0 en perspective - une analyse socio-économique de l'internet, L’Harmattan, 2007.

Ne passez pas à côté de nos analyses

Pour ne rien rater de l’analyse des médias par nos experts,
abonnez-vous gratuitement aux alertes La Revue des médias.

Retrouvez-nous sur vos réseaux sociaux favoris

À lire également

Régulation de la parole politique en ligne : les deux modèles antinomiques de Twitter et de Facebook

Les vives tensions de ces dernières semaines entre Donald Trump et Twitter, puis la pression exercée par la campagne #StopHateForProfit sur Facebook font resurgir la délicate question de  la modération de la parole politique sur les réseaux sociaux. Qui décide, et comment, de ce qui est visible dans l’espace public numérique ?