Le mercredi 6 janvier, une foule compacte de militants pro-Trump radicalisés partent à l’assaut du Capitole, après y avoir été incités par Donald Trump. Le bilan à la fin de la journée est dramatique : cinq morts, dont un agent de la police du Capitole tué à coups d’extincteur et une partisane de Donald Trump mortellement blessée par un coup de feu. Dans les jours qui suivent, Le président américain en exercice voit ses comptes personnel suspendus (Facebook et YouTube) ou supprimés (Twitter). Raison invoquée : le président aurait enfreint leurs politiques de lutte contre l’incitation à la violence. Ce « bannissement », inédit pour un chef d’État, provoque de nombreux débats sur la régulation des médias sociaux et la modération des propos qui y sont tenus. Entretien avec le chercheur Romain Badouard, maître de conférences en sciences de l’information et de la communication à l’université Paris-II et auteur des Nouvelles Lois du Web. Modération et censure (Seuil, 2020).
Comment analysez-vous la décision de Twitter, Facebook, Youtube et d’autres, de suspendre voire bannir Donald Trump de leurs plateformes ?
Romain Badouard : Cette affaire montre le pouvoir déterminant des grandes plateformes numériques sur la liberté d'expression ainsi que le fonctionnement du débat public et de la démocratie en Occident. Ces plateformes sont des entreprises privées, fournissant des services privés, et on peut considérer qu'à ce titre elles ont le droit de décider de la manière dont on utilise les technologies qu'elles mettent à disposition, donc de modérer ou de bannir des utilisateurs, quels qu'ils soient. Mais ces espaces privés sont devenus les principales arènes du débat public dans les démocraties occidentales. On ne peut donc pas considérer que ces plateformes ne sont que des espaces privés. Elles doivent aussi faire l'objet d'une régulation de la part des pouvoirs publics.
De nombreuses personnes ont fait part de leur étonnement voire sidération à la suite du bannissement de Donald Trump de ces plateformes. Ce n’est cependant pas la première fois qu'elles prennent de telles décisions, unilatérales et discutables. Vous citez dans votre livre le cas de pages Facebook plutôt classées à gauche qui ont vu leur visibilité s’évanouir sans raison apparente.
Un palier a été franchi, et c’est ce qui attire autant l’attention. C’est le président des États-Unis, élu démocratiquement, qui se fait censurer et bannir par des modérateurs et des plateformes privés. Mais effectivement, la question de la régulation privée du débat public et du pouvoir de censure de ces plateformes ne date pas d’hier. Je me réjouis tout de même que nous en parlions autant. Ces controverses nous poussent à nous demander collectivement ce que pourrait être une régulation réellement démocratique de ces plateformes.
En lisant votre livre, on peut avoir le sentiment que ces services ont été fondamentalement mal construits, que leurs fonctionnalités n'ont pas forcément été pensées pour limiter les abus et permettre, par exemple aux personnes victimes de harcèlement, de se protéger. Est-il possible de les améliorer ?
Ces plateformes n'ont pas été créées pour devenir les arènes du débat public. Elles étaient initialement des réseaux sociaux qui devaient permettre à des personnes qui se connaissent de se réunir entre elles. Avec l’accroissement de leur popularité, elles sont devenues des espaces de débats très importants et ont, à ce titre, de nouvelles responsabilités. Les technologies ne sont jamais immuables et elles peuvent être déconstruites pour être reconstruites à nouveau. Ces plateformes peuvent être poussées à modifier leur modèle économique et/ou technologique. Il faudrait leur imposer des choix de design, notamment dans leur conception même. Instagram a par exemple expérimenté le fait de ne plus comptabiliser les likes sur les photos. YouTube a décidé de moins recommander de contenus complotistes sur sa plateforme. Il y a beaucoup de leviers de régulation technologiques à notre disposition. Ce qui manque, c’est une volonté politique pour imposer ces choix, même si elle est aujourd'hui en train d'émerger.
Comment expliquez-vous que cette volonté politique a mis tant de temps à émerger ?
Les personnalités politiques n'ont peut-être pas perçu les dangers démocratiques derrière ces grandes plateformes, et ont d’abord vu ces réseaux comme des outils de modernité. On peut poser l’hypothèse qu’il fallait y être et ne surtout pas les critiquer, de peur de paraître vieux jeu. Ces réseaux étaient aussi vus comme des leviers de croissance économique, que l’on n’a pas voulu entraver alors qu’elle était promise par les grandes entreprises du numérique. Nous sommes entrés dans une nouvelle séquence depuis le milieu des années 2010 : ces grandes plateformes présentent une somme de dangers démocratiques potentiels, que ce soit la surveillance généralisée, de nouvelles formes de propagande, la réutilisation des données personnelles, la violence expressive dans le débat. C’est un peu le revers de la médaille. On arrive aujourd'hui à un moment historique : celui de la régulation.
Y a-t-il une volonté des pouvoirs publics de « déjudiciariser » ou extra-judiciariser les décisions concernant ce qui se dit et ce qui se fait sur les plateformes de médias sociaux ?
Cette question de l’extra-judiciarisation des décisions est un gros problème. Il est notamment dénoncé par les organisations de défense des libertés sur Internet, qui y voient des formes de privatisation de la censure. Vous avez des États qui font pression sur des acteurs privés pour censurer davantage ce qui peut se dire sur leurs plateformes, faisant disparaître, de fait, le juge du paysage. C’est notamment ce que prévoyait la loi Avia. Au passage, la loi sur les manipulations de l'information [parfois appelée « loi fake news » ou « loi infox », NDLR] en France ne s’inscrit pas dans cette tendance car elle crée une nouvelle procédure judiciaire.
Dans un monde idéal, un parquet numérique serait notifié de toutes les décisions des plateformes, et capable à la fois d'engager des procédures contre les internautes qui ont tenu des propos illégaux et de sanctionner les plateformes qui se livrent à de la censure abusive. Dans la pratique, cela paraît difficilement envisageable étant donné les moyens dont dispose la justice aujourd'hui et le volume de contenus qui sont publiés sur les réseaux sociaux. Il faut donc plutôt réfléchir à la façon dont les plateformes vont mieux collaborer avec la justice pour permettre, grâce à la communication des données, l'identification de personnes qui se livrent à du cyberharcèlement, à de la propagande jihadiste, des menaces de mort, et ainsi de suite.
Il y a eu des procès pour des propos violents tenus et diffusés sur les réseaux sociaux. La justice est-elle efficace pour lutter contre ce genre de menaces ?
Les procès ont une efficacité symbolique qui ne doit pas être négligée. Il y a des procès médiatiques, je pense notamment à celui de Nadia Daam contre ses cyber harceleurs. Certes, c’est une goutte d'eau dans l'océan, mais ça a quand même le mérite de montrer que, non, on ne peut pas tout dire même lorsque l'on se croit protégé par un écran d'ordinateur. On ne peut pas menacer quelqu’un de mort, c'est interdit par la loi et cela vaut aussi pour Internet. Si cela peut permettre une prise de conscience de certains internautes, qui cherchent à faire des « mauvaises blagues », ce n’est peut-être pas plus mal. Ce que montrent aussi ces affaires, c’est qu’il est possible d'identifier ceux qui profèrent des menaces de mort ou harcèlent d’autres utilisateurs sur les réseaux sociaux et que même si ces personnes sont anonymes, elles peuvent être identifiées grâce à leur adresse IP, qui peut être transmise à la justice. Ce dont nous avons besoin, et c'est ce à quoi devrait s’atteler un parquet numérique, c'est que les plateformes collaborent de manière plus efficace avec le pouvoir judiciaire. Ce n’était, jusqu’à aujourd’hui, pas encore le cas. La lutte antiterroriste a montré que malgré tout, il était possible de le faire.
Comment faire pour que les plateformes répondent d’avantage aux exigences démocratiques plutôt qu'à des sanctions économiques, en sachant qu’il n’y a pas forcément d’alignement entre ces deux intérêts ? (Voir notre interview de Yochai Benkler)
Les pouvoirs publics doivent fixer des normes minimales de fonctionnement de ces réseaux dans les démocraties. Mais la régulation ne peut pas se limiter uniquement au rôle des États : une régulation réellement démocratique des plateformes passe aussi par l'engagement des citoyens, celui des entreprises et par la régulation du marché publicitaire. On se rend compte que beaucoup d'entreprises qui financent les espaces publicitaires sur ces plateformes ont un moyen de pression très important sur leur fonctionnement. Lorsqu'elles refusent de diffuser de la publicité dans des environnements dans lesquels elles jugent qu'il y a trop de désinformation ou trop de violence, des actions sont prises. On peut regretter qu’il faille en arriver à des menaces économiques pour faire bouger les choses, mais on peut aussi considérer que ces entreprises ont leur rôle à jouer dans la régulation des plateformes et de l'espace public numérique, notamment par le biais du fonctionnement du marché publicitaire, qui pourrait lui aussi être largement assaini sur internet.
On observe parfois un manque de transparence et de clarté à ce sujet. Vous évoquez un épisode particulièrement marquant dans votre livre. Des sociétés ont fait part à Google de leur mécontentement de voir certaines de leurs publicités apparaître sur des pages faisant l’apologie du terrorisme, les finançant de fait. Google a alors changé son fonctionnement, permettant aux annonceurs de choisir sur quels genres de pages leurs publicités pourraient apparaître… possibilité totalement transformée quelques mois après, sans que personne n’en sache rien, opérant de fait un retour en arrière.
La question de la régulation des plateformes par la transparence est essentielle, mais elle présente aussi un certain nombre d’écueils. On voit au sein des États européens, en ce moment particulièrement, des injonctions faites aux plateformes d'être plus transparentes en publiant des rapports présentant le fonctionnement de leurs dispositifs de modération, des registres des publicités politiques, etc. Ce qui est plutôt positif. En France, c'est le CSA qui doit contrôler ces rapports. C'est une bonne chose car cela permet d'en apprendre davantage sur la manière dont les plateformes modèrent les propos qui sont tenus. Mais réguler par la transparence pose un problème majeur : le régulateur devient dépendant des données qui lui sont transmises par les plateformes. On ne sait d’elles et de leurs actions que ce qu'elles veulent bien nous dire. Les plateformes fournissent des données, qu’il est impossible d’authentifier ou de certifier. Le nœud du problème consiste donc à savoir comment accéder de manière indépendante aux données des plateformes. La Commission européenne par exemple, avec le Digital Service Act qui a été présenté en décembre 2020, préconise pour les très grandes plateformes l'obligation de réaliser des audits indépendants une fois par an, durant lesquels des agences spécialisées pourront avoir accès aux données des plateformes pour pouvoir les certifier. Sans accès certifié à ces données, la régulation par la transparence ne peut pas fonctionner.
Le caractère international des grandes plateformes numériques complique-t-il la situation ?
Pendant longtemps, ce caractère international d'Internet, avec des serveurs qui se trouvent dans un pays, des services qui sont proposés dans un autre, a compliqué beaucoup de choses, notamment la coopération judiciaire qui visait à limiter les discours illégaux dans certains pays. Aujourd'hui, paradoxalement, la centralisation du débat autour de grandes plateformes facilite les choses. Certes ces plateformes dépendent avant tout du droit américain, et pour la plupart du droit californien, mais on voit que les États, notamment en Europe, peuvent leur imposer des normes. Et les plateformes se mettent en conformité avec des dispositifs de modération à deux étages. Le premier étage, ce sont les standards de publication qui s'appliquent à l'ensemble des internautes dans le monde entier, le deuxième, ce sont les réglementations et restrictions nationales. Par exemple, l’adoption de la loi NetzDG en Allemagne ou de la Loi sur les manipulations de l'information en France, font que les versions des différents services ne sont pas exactement identiques, non seulement entre ces deux pays, mais aussi avec leurs voisins. Cela se manifeste différemment en fonction des plateformes. Sur Facebook, ce sont les types de contenus interdits qui diffèrent, sur YouTube, c’est la manière de signalement des contenus. Et sur Twitter, c’est l'utilisation de certains hashtags qui va être interdite ou autorisée en fonction des pays. Les plateformes sont dans une logique de mise en conformité avec les règlements nationaux, et c'est une bonne chose parce que cela montre que le pouvoir politique et le droit ont encore leur mot à dire dans la régulation de ces espaces.
Vous avez évoqué la régulation démocratique des plateformes, pourriez-vous nous parler de ce qui est en préparation au Royaume-Uni, où doit voir le jour une structure de surveillance de la régulation ?
L'une des grandes questions de la régulation des plateformes est de savoir qui doit s'occuper de cette supervision de la régulation. En France il a été décidé que c'était le CSA. En Allemagne, c'est le ministère de la Justice qui mandate des organisations qui s’en occupent. Au Royaume-Uni, la nouvelle législation vise à créer une autorité indépendante qui aurait pour mission la régulation des réseaux sociaux. Elle serait créée à partir d'un impôt spécifique, levé sur le monde des entreprises de l'économie numérique. Il y a différentes façons de faire, tout l'enjeu étant de pouvoir accéder aux données des plateformes et de savoir comment nous serons capables de certifier que les informations qu'on contrôle sont bien authentiques.
En lisant votre livre, on peut se demander s’il ne serait pas plus simple de démonter toutes les plateformes et de les reconstruire de zéro sur la base d’initiatives publiques transnationales. Serait-ce souhaitable ou même réalisable ?
On peut imaginer que des grandes plateformes publiques et transnationales soient créées pour prendre la succession de ces grandes plateformes privées. Mais je me fais assez peu d'illusions sur le fait qu'elles ne rencontreraient pas de succès. Les plateformes comme YouTube, Facebook ou Twitter bénéficient de l'effet de réseau, un principe économique qui veut que l’on a intérêt à utiliser un service parce qu'il est utilisé par beaucoup de monde. Si j'utilise Facebook, c'est parce que tous mes amis y sont. Si je vais sur YouTube, c'est parce qu'il y a beaucoup de contenus disponibles. Créer des plateformes publiques respectueuses des données et qui ne seraient pas dans une démarche de ciblage publicitaire est tout à fait envisageable. On peut cependant penser que les internautes préfèreront rester sur les plateformes existantes. A mon avis, la menace pour ces plateformes de médias sociaux vient plutôt du marché et de l'émergence d'autres services qui vont les concurrencer. On le voit aujourd'hui d'ailleurs avec Facebook, qui est beaucoup moins utilisé par les jeunes générations, qui lui préfèrent Snapchat ou TikTok. Ce que nous apprend la courte histoire du Web, c'est que les grandes entreprises qui sont en situation de quasi-monopole peuvent très bien tomber dans l'oubli en quelques années.
Est-il possible aujourd'hui de parvenir à une modération des contenus efficace, transparente et qui respecte les utilisateurs ?
C'est envisageable, mais la massification des publications représente un gros problème. Lorsque l’on voit, par minute, le nombre d'heures de vidéos postées sur YouTube, le nombre de contenus publiés sur Facebook ou de messages partagés sur Twitter, on a du mal à imaginer comment une modération uniquement humaine pourrait en venir à bout. C'est pour cela que les plateformes ont opté pour des formes de modération automatisées, avec des algorithmes qui scannent les contenus à la recherche de publications problématiques, d'usage de mots ou d'images interdits. Il me semble difficile d’aller contre ce phénomène d'automatisation. Ces algorithmes créent aussi beaucoup de faux positifs et générent de la censure abusive, ce qui est un autre problème.
Face à ça, il faut garantir un certain nombre de droits aux usagers, notamment une transparence de la procédure de modération. Si, par exemple, nous sommes l’objet d’une procédure, il faut que nous soyons mis au courant, informé des décisions qui ont été prises et les critères sur lesquelles elles se fondent. Il faut aussi pouvoir bénéficier d'un droit d'appel qui nous permette de demander ou d'exiger que leurs contenus soient à nouveau évalués. Facebook, par exemple, a mis en place un droit d'appel depuis 2018. Les chiffres fournis par la plateforme elle-même montrent qu'il y a quand même une part non négligeable de contenus supprimés qui sont restaurés après appel, de l’ordre de 12 %. Il y a aussi des besoins à ce niveau-là.
Vous évoquez dans votre essai la formation de groupes de contre-discours sur les réseaux sociaux, qui veulent occuper le terrain et contrer les paroles haineuses en apportant des arguments ou en désamorçant l’agressivité des propos. De telles initiatives doivent-elles être financées publiquement ?
La régulation vraiment démocratique passe aussi par l'engagement des citoyens et leur participation. C’est une partie de la solution, mais ce n’est pas une solution miracle. Le contre-discours permet, dans bien des cas, de pacifier les débats ou d'alerter la majorité silencieuse, qui regarde les débats sans y participer, du caractère falsifié d’une information. C’est important, d'autant plus que les internautes sont au plus près du contenu. Pour les plateformes, ils correspondent aussi à une sorte de force de modération distribuée, qu'il est important de mobiliser. Les plateformes essaient par ailleurs de récupérer les initiatives de contre-discours, en cherchant notamment à financer des associations. Du côté des pouvoirs publics, on a récemment pu voir Marlène Schiappa appuyer la création de cellules de riposte, qui porteraient des contre-discours républicains.
Beaucoup de gens ont fait part de leur circonspection face à cette proposition de la Ministre déléguée chargée de la citoyenneté…
Ce qui fait la force de ces contre-discours, à mon avis, c'est aussi leur caractère spontané. On peut imaginer que cela fonctionne un petit peu mieux lorsqu’il s'agit de conversations entre internautes que lorsque c'est labelisé par les plateformes ou par les pouvoirs publics. Lorsque Marlène Schiappa évoque cette initiative, on imagine des gens dans un ministère en train de répondre aux internautes, ce qui ne peut pas être efficace. Finalement, l'idée est moins de convaincre les internautes qui ne sont pas d'accord que d'occuper l'espace du débat et de montrer aussi que d'autres discours sont possibles.
En conclusion de votre essai, vous évoquez trois principes qui permettraient de protéger la liberté d'expression et la garantir. Pourriez-vous nous en dire un peu plus ?
Face à ce pouvoir des grandes entreprises privées sur la régulation du débat public, nous pouvons leur imposer des normes, mais nous pouvons aussi chercher à réfléchir à la manière dont nous pourrons doter les citoyens de nouveaux droits. L’un des principes que je présente en conclusion est celui de la transparence, c’est-à-dire comment imposer aux plateformes la publication régulière d'un certain nombre d'information liées à leurs activités de modération. Il y a ensuite le principe d'appel, qui veut que les internautes qui pensent avoir été victimes de censure abusive puissent exiger un réexamen de leur publication. Le dernier principe, c'est celui qui garantit le fonctionnement des deux autres : l'accès aux données. Des agences indépendantes ou des pouvoirs publics pourraient avoir un pouvoir d’audit qui permettrait de certifier les données transmises par les plateformes. C'est vraiment le nœud du problème. En France, les plateformes de médias sociaux transmettent des rapports au CSA ou publient des rapports sur des plateformes dédiées, mais nous savons très peu de choses sur l'authenticité de ces données.
Êtes-vous confiant ? Pensez-vous que les choses peuvent changer dans un futur proche ?
Je suis, bizarrement, plutôt confiant. Nous nous trouvons à un moment particulier qui est propice à la régulation de ces grandes plateformes. D'abord, parce que les pouvoirs publics, aux États-Unis ou en Europe, votent de nouvelles lois ou engagent des procédures judiciaires qui poussent les plateformes à réformer leurs dispositifs de modération, ce qui fait bouger les choses. Et les médias, ainsi que les citoyennes et les citoyens, s'intéressent au sujet. Le fait que toutes et tous se saisissent du dossier crée un environnement propice. Jusqu’où cela ira-t-il, arriverons-nous à des formes véritablement démocratiques de régulation ? C'est encore la grande question, mais on peut déjà se satisfaire que les choses bougent enfin, après de nombreuses années d’inertie.
Mise à jour du 14/01/2021 à 16h13 : ajout de la précision que les comptes suspendus ou supprimés sont les comptes personnels de Donald Trump.