Jack Dorsey (Twitter) et Mark Zuckerberg (Facebook)

Les dirigeants de Twitter (Jack Dorsey, à gauche) et de Facebook (Mark Zuckerberg, à droite) ne partagent pas la même approche de la régulation de la parole politique sur leurs plateformes respectives.

© Crédits photo : Jack Dorsey : Phillip Faraone / Getty Images North America - Getty Images via AFP. Mark Zuckerberg : Kenzo Tribouillard / AFP

Régulation de la parole politique en ligne : les deux modèles antinomiques de Twitter et de Facebook

Les vives tensions de ces dernières semaines entre Donald Trump et Twitter, puis la pression exercée par la campagne #StopHateForProfit sur Facebook font resurgir la délicate question de  la modération de la parole politique sur les réseaux sociaux. Qui décide, et comment, de ce qui est visible dans l’espace public numérique ?

Temps de lecture : 10 min

Les plateformes numériques de distribution de contenu et de réseautage social se trouvent aujourd’hui au cœur de l’espace public numérique dans lequel s’informe une grande partie de la population et où se déroule une part importante des débats de société. De ce fait, leur fonctionnement constitue un enjeu politique de première importance comme le montre la séquence déclenchée par le meurtre de Georges Floyd commis par un policier de Minneapolis et les réactions qui ont suivi. En effet, depuis quelques semaines les principales plateformes numériques ont durci leur politique de modération de la parole politique, notamment envers Donald Trump et ses supporteurs : fin mai, Twitter a ouvert le bal en signalant plusieurs messages de Trump comme étant de la désinformation ; le 3 juin, Snapchat a arrêté la promotion du compte du président des États-Unis dans la section Discovery ; le 18 juin, après moult tergiversations, Facebook a fini par censurer une publicité de sa campagne qui associait les antifa à un symbole nazi. Enfin, le 29 juin, YouTube a supprimé des dizaines de chaines, comme celle de Dieudonné, pour incitation à la haine ; le même jour Reddit a éliminé deux mille forums au contenu raciste parmi lesquels r/The_Donald, un groupe de supporteurs de Trump, tandis que Twitch a suspendu temporairement la chaîne du président étatsunien.

La double régulation des gatekeepers numériques

Le point commun des entreprises précédemment mentionnées est de ne pas produire du contenu, mais de contrôler l’infrastructure technique qui organise une forme d’« architecture de la visibilité » globale(1). En effet, leurs algorithmes et leurs modérateurs humains décident de ce qui est rendu visible, et dans quelle ampleur, pour des milliards d’internautes dans le monde. Ces algorithmes et ces modérateurs constituent ainsi les gatekeepers (littéralement « portiers » ou « garde-barrières », NDLR) contemporains qui, à l’instar des rédacteurs en chef, sélectionnent et hiérarchisent l’information en contribuant à définir l’agenda médiatique et politique. Ce processus de sélection et de hiérarchisation a un impact considérable sur les représentations sociales, c’est à dire sur la « réalité commune à un ensemble social »(2), et par extension sur la formation de l’opinion publique.

C’est pourquoi se pose la question, profondément politique, d’une double régulation : d’un côté celle de la visibilité des idées, des opinions et de la liberté d’expression exercée par les plateformes numériques ; de l’autre, la régulation politique, économique et technique du fonctionnement de ces mêmes plateformes. Autrement dit, qui décide de ce qui est visible dans l’espace public numérique ? et comment ? Mais aussi : qui définit, et comment, la manière dont ces décisions se prennent ?

Les rapports sociaux derrière les algorithmes

La question de la régulation des plateformes est d’autant plus significative aujourd’hui que nous nous trouvons désormais à mille lieux de l’époque où Mark Zuckerberg pouvait affirmer sérieusement que Facebook n’était qu’un simple prestataire technique neutre. Il est en effet désormais de notoriété publique que, derrière le fonctionnement supposément automatisé des algorithmes, se cache toute une série d’opérations humaines. Qu’il s’agisse des cadres législatifs imposés par les États, des stratégies industrielles mises en œuvre par les propriétaires de plateformes, des arbitrages techniques effectués par les développeurs jusqu’aux choix opérés quotidiennement par les travailleurs précaires du clic que sont les modérateurs de contenu(3), le fonctionnement des plateformes est conditionné par les rapports sociaux et leur reproduction(4).

Le récent durcissement de leur politique de modération a confirmé que les plateformes numériques constituent des entités économiques mais aussi politiques et, à ce titre, leurs stratégies — dont l’objectif prioritaire reste la maximisation des profits — peuvent s’infléchir sous la pression des mouvements sociaux et de l’opinion dans un contexte politique extrêmement polarisé. L’économie politique des plateformes numériques fait émerger ainsi deux paradigmes opposés quant à la régulation de la parole politique en ligne, incarnés par les deux acteurs les plus importants dans ce domaine que sont Twitter et Facebook.

Twitter, le revirement volontariste et transparent               

Rappel des faits. Le 26 mai dernier, le président des États-Unis a tweeté des affirmations inexactes concernant le processus de vote par correspondance lors de l’élection présidentielle américaine de 2020. Après le tollé général suscité par ces propos, Twitter a décidé de qualifier le tweet de suspect, en invitant ses utilisateurs à « obtenir les faits sur les bulletins de vote par correspondance ». Ce n’est pas la première fois que les plateformes des médias sociaux décident de prendre des mesures contre des personnalités politiques : Twitter, Facebook et Instagram ont déjà supprimé des  messages du président du Venezuela, Nicolás Maduro, et du président du Brésil, Jair Bolsonaro, au motif qu’ils comportaient des informations trompeuses sur la pandémie de Covid-19. Mais c’est la première fois qu’une telle mesure est appliquée contre le président des États-Unis, qui compte 82 millions de followers. Plus récemment, Twitter a masqué un tweet de Donald Trump et l’a accompagné d’un message signalant que celui-ci contrevenait à ses règles d’utilisation. Selon Twitter, il n’est pas autorisé de « souhaiter ou espérer nuire à une personne ou à un groupe de personnes ». Les utilisateurs du service ne pourront pas « aimer » ce message de Trump, ni y répondre ou le retweeter sans commentaire. Ce dernier choix est intéressant car il tente de répondre aux besoins du débat public (retweeter avec un commentaire permettant d’émettre une critique contrairement au simple retweet).  

Entre temps, le 29 mai, le président étatsunien avait traité de « voyous » (thugs) les manifestants qui protestaient contre le meurtre de George Floyd, et les avait avertis que « lorsque les pillages commencent, les tirs commencent », citant un chef de la police de Miami qui, dans les années 1960, encourageait les violences policières contre la communauté noire. Cette fois-ci, Twitter est allé plus loin en censurant le tweet pour cause d’apologie de la violence. La décision a été prise par le « Conseil Confiance et Sécurité » (Trust and Safety Council) de Twitter, composé d’une quarantaine d’experts et de groupes (associations et fondations pour la protection de l’enfance, la liberté d’expression, les droits civiques etc.). Ce Conseil avait été créé en 2016, au moment où Twitter s’était trouvé sous le feu de critiques pour son incapacité à limiter la prolifération des contenus haineux et du harcèlement sur la plateforme. Or, le Conseil avait récemment été mis en sommeil au point que ses membres avaient adressé, en août 2019, une lettre à Jack Dorsey pour se plaindre de ne pas être sollicités ou consultés.

La décision de censurer le tweet de Trump a donc marqué le retour en force de ce Conseil et, plus fondamentalement, a confirmé le tournant stratégique initié par Jack Dorsey d’une politique de « laissez-faire » vers une action beaucoup plus volontariste et interventionniste en matière de modération, mais aussi beaucoup plus transparente. À titre d’exemple, Twitter a annoncé le 11 juin le démantèlement de trois réseaux organisés de désinformation et de propagande liés aux gouvernements chinois, turc et russe. Dans une démarche exemplaire, Twitter a partagé au préalable les données concernant l’activité de 32 242 comptes suspectés de faire partie de ces opérations avec deux instituts de recherche indépendants, l’Australian Strategic Policy Institute (ASPI) et le Stanford Internet Observatory (SIO), qui ont ainsi pu produire deux études approfondies. Puis les données ont été rendues publiques pour quiconque souhaite les examiner et contrôler ainsi le bien-fondé de cette initiative.

Facebook et la « neutralité » trompeuse

Facebook de son côté maintient la position inverse. S’il n’hésite pas à censurer des informations et à régulièrement supprimer des milliers de profils, il refuse en revanche de rendre transparent le processus de décision et de rendre compte de son impact. Surtout, Facebook est resté passif après les déclarations incendiaires de Donald Trump alors que celles-ci étaient en infractions avec ses règles. Pourquoi ? Parce que, selon son fondateur, interrogé par Fox News, Facebook n’a pas vocation à jouer le rôle « de l’arbitre de la vérité en ligne » — déclaration retweetée par Donald Trump. À la suite de réactions publiques de plusieurs salariés de Facebook indignés par le choix de leur patron, Mark Zuckerberg a promis de réexaminer certaines règles relatives à la modération du contenu mais sans s’engager sur des reformes concrètes. En effet, Facebook est beaucoup plus réticent à soumettre ses décisions à une évaluation indépendante et transparente.

Ainsi, il n’a que très récemment annoncé la création d’un « conseil de surveillance » (Facebook Oversight Board), une instance théoriquement indépendante composée d’experts qui sera chargée de trancher les débats en matière de politique de modération. Ce conseil est financé à hauteur de 130 millions de dollars par un trust appartenant à Facebook. Il formulera des recommandations et pourra, dans certains cas, décider directement quels contenus devraient être autorisés ou pas.

Cependant, la composition de ce conseil soulève déjà des questions sur son impartialité. Parmi ses membres, on trouve par exemple Emi Palmor, l’ancienne directrice générale du ministère de la justice israélien qui, sous les ordres de la ministre Ayelet Shaked, figure de l’extrême droite, avait mis en place une cyberunité chargée de contrôler et censurer l’activité des Palestiniens en ligne. Cette nomination constitue un gage donné à la droite américaine conservatrice et pro-israélienne.

De même, en mai dernier, Facebook a annoncé la mise en place d’un partenariat avec Check Your Fact, une filiale du site très droitier Daily Caller, lui-même émanation de Fox News. Check your fact est devenu ainsi l’un des six fact-checkers officiels de Facebook pour les États-Unis, ce qui lui donne le pouvoir de valider ou non des informations critiques sur Trump, notamment dans Facebook News, l’onglet dédié à l’actualité dans l’application mobile du service. En octobre 2019, Mark Zuckerberg avait annoncé son lancement accompagné de Robert Thomson, PDG de News Corp, le groupe de presse très conservateur de Rupert Murdoch. Enfin, Facebook News, dirigée depuis 2017 par l’ancienne journaliste Campbell Brown — une proche de Betsy DeVos, secrétaire à l'Éducation dans l'administration Trump —, a décidé d’inclure Breitbart, le site d’extrême droite longtemps dirigé par Steve Bannon, parmi ses 200 sources de confiance.

Visiblement, l’inaction de Facebook face aux provocations de Donald Trump et l’interview complaisante de Mark Zuckerberg à Fox News s’inscrivent dans une stratégie visant à amadouer le public conservateur qui pense que Facebook, comme tous les géants de la Silicon Valley, est proche du parti démocrate. Il s’agirait donc de renforcer sa « neutralité » en rééquilibrant ce biais « libéral » supposé. En réalité, en reprenant ainsi à son compte ce vieil argument de la droite américaine selon lequel les médias mainstream sont de « gauche », Facebook normalise le trumpisme et son discours sectaire. Cette hypothèse est corroborée par l’énorme succès des pages d’extrême droite comme celles appartenant à Ben Shapiro, malgré le fait qu’elles contreviennent de manière flagrante aux règles de Facebook.

En outre, Donald Trump consacre depuis des années des sommes considérables à la machine publicitaire de Facebook, ce qui fait de sa campagne l'une des plus efficaces de l'histoire de la publicité politique en ligne. La façon dont le système publicitaire de Facebook fonctionne favorise les gros consommateurs réguliers comme Trump, tout en permettant de cibler des publics spécifiques, une technique appelée « micro-ciblage » (microtargeting). En fait, Facebook est la seule plateforme oligopolistique qui n’a pas pris de mesures contraignantes pour encadrer la publicité politique en vue des élections présidentielles de novembre 2020 aux États-Unis. Il est donc aujourd’hui tout à fait possible pour quiconque d’y diffuser des messages à contenu politique mensongers. Twitter quant à lui, a interdit toute publicité politique, tandis que Google a limité le micro-ciblage.

Cependant, Mark Zuckerberg s'est récemment engagé à mieux contrôler à l’avenir le contenu des publicités politiques et à signaler les messages violant les conditions d’utilisation du service mais qui peuvent être utiles au débat public, comme le fait actuellement Twitter. Ces annonces sont le résultat des pressions subies par des gros annonceurs comme Unilever et Coca-Cola qui ont répondu à la campagne #StopHateForProfit en arrêtant temporairement leurs investissements sur les médias sociaux.

Risque de « surcensure »

Donald Trump a réagi fortement à l’initiative de Twitter — son support favori de communication — de censurer ses messages, et ceci d’autant plus qu’il se trouve dans une situation politique délicate avec plus de 100 000 décès dus à la Covid-19, une économie en forte récession et des manifestations contre les violences policières et le racisme qui se répandent partout dans le pays. Il a ainsi signé un décret, demandant la révision de la loi Communications Decency Act (loi sur la décence dans les communications) de 1996 et, plus particulièrement, de la section 230 qui protège les intermédiaires contre les poursuites judiciaires pour le contenu hébergé. Même si cette initiative risque de ne jamais aboutir, elle replace dans l’actualité le dilemme entre une régulation de la liberté d’expression en ligne par la loi, et donc in fine par les juges, ou par les plateformes elles-mêmes en amont de la justice dès lors qu’elles seraient considérées comme responsables des propos tenus par les utilisateurs sur leurs services.

D’ailleurs, l’Allemagne, et très récemment la France, ont adopté des lois qui interviennent dans le fonctionnement de la modération au sein des plateformes, permettant aux utilisateurs et à la police de signaler des contenus comme « manifestement illicites ». En Allemagne, la loi « Netzwerkdurchsetzungsgesetz » (« NetzDG » en abrégé) adoptée en 2017, exige des plateformes qu'elles suppriment ces contenus dans les 24 heures, sous peine d’une pénalité pouvant aller jusqu’à 50 millions d'euros. La loi a été récemment modifiée pour exiger que les plateformes rendent leurs décisions transparentes.

En France, la fameuse loi de « Lutte contre la haine sur internet » (ou « Loi Avia » du nom de la députée LREM qui l’a portée), inspirée de la loi allemande, a finalement été votée le 13 mai, bien qu'elle ait été fortement critiquée comme mettant en cause la liberté d'expression par des nombreuses associations, des experts et par la Commission européenne. Cependant, le Conseil constitutionnel a censuré une grande partie des dispositions de cette loi car cette dernière ne peut « qu’inciter les opérateurs de plateforme en ligne à retirer les contenus qui leur sont signalés, qu’ils soient ou non manifestement illicites », ce qui constitue une atteinte disproportionnée à la liberté d’expression.

Le Conseil constitutionnel reprend ainsi à son compte l’idée que ce type de législation risque de pousser les plateformes à la « surcensure » afin d’éviter les risques d’amende. Par ailleurs, les initiatives de l’exécutif peuvent être soupçonnées d’être motivées par une volonté de limiter les critiques envers le gouvernement. Ceci d’autant plus qu’en France le contexte social est très tendu depuis quelques années et que des nombreux cas de censure d’acteurs contestataires ont déjà été signalés avant même le vote de la loi Avia.

Mais on pourrait en dire autant d'une approche de « laissez-faire » qui accroit la toxicité de l’espace public numérique et nuit gravement à la qualité du débat politique. Trouver un équilibre entre contrainte par la loi, autorégulation transparente des plateformes et redevabilité démocratique qui protège l’intérêt général et la liberté d’expression est une voie très étroite comme le montrent ces récents événements.

(1)

Taina Bucher, If ... Then. Algorithmic Power and Politics, Oxford University Press, 2018.

(2)

Denise Jodelet, Les représentations sociales, PUF, 1989, p. 36.

(3)

Sarah T. Roberts, Behind the Screen. Content Moderation in the Shadows of Social Media, Yale University Press, 2019.

(4)

Nick Couldry, Ulises A. Mejias, The Costs of Connection: How Data Is Colonizing Human Life and Appropriating It for Capitalism, Stanford University Press, 2019

Ne passez pas à côté de nos analyses

Pour ne rien rater de l’analyse des médias par nos experts,
abonnez-vous gratuitement aux alertes La Revue des médias.

Retrouvez-nous sur vos réseaux sociaux favoris

À lire également