« Si une rumeur politique se trouve sur le web, je la démens sur le web »

« Si une rumeur politique se trouve sur le Web, je la démens sur le Web »

Durant la campagne présidentielle, les réseaux sociaux se sont retrouvés au centre du débat. Alors que certains prétendaient pouvoir y prévoir l’issue du 1er tour d’autres, des militants, s’en sont servis pour propager rumeurs et propagande. Rencontre avec Nicolas Vanderbiest.

Temps de lecture : 11 min

Nicolas Vanderbiest est assistant et doctorant à l’Université Catholique de Louvain. Il est l’auteur du blog Reputatio Lab qui étudie un corpus de 400 crises qui se sont déroulées sur les réseaux sociaux.

 

Plusieurs sociétés, comme Filteris, ont déclaré être en mesure de prédire le résultat du premier tour de l’élection présidentielle en se basant sur les activités des réseaux sociaux et les mouvements du web. Ils avaient ainsi prévu un deuxième tour Fillon/Le Pen, en plaçant la candidate d’extrême-droite en tête. Vous semble-t-il possible de s'appuyer sur les réseaux sociaux pour prévoir l'issue d'un scrutin ? 


Nicolas Vanderbiest :  Absolument pas, il est impossible de le prévoir. Ce qu'il est essentiel de comprendre, c'est la place des API. Tous les réseaux sociaux récupèrent des infos sur leurs utilisateurs, qu'ils stockent sur des serveurs. Ils donnent l'accès à une partie d'entre elles aux développeurs. Les API sont les tunnels par lesquels ces données circulent. Elles sont classées par colonne avec certaines métadonnées, qui ne sont pas toutes disponibles. Sur Twitter tout est à peu près accessible sauf les informations des utilisateurs. On peut donc voir le contenu qui est propagé à travers des mots clés, tout est disponible.

 Twitter ne peut en aucun cas permettre de prédire l'issue d'un scrutin

Sur Facebook on n'a accès qu'aux pages publiques, c'est à dire celles des militants, des personnalités, des partis politiques, des médias mais en aucun cas celles des citoyens, des utilisateurs lambda. Nous n'avons pas accès aux groupes, nous n'avons pas accès aux publications sur les profils et les murs, même s'ils sont publics. On ne peut quasiment accéder à rien. Sur Instagram, on ne peut presque rien récupérer, il n’est pas possible d’analyser l'image par la veille et il n'y a pas nécessairement de contenus intéressants. Sur YouTube, presque rien n'est disponible. En définitive, ce que l'on récupère, c'est Twitter à 90 % et environ 7 % d'informations provenant de Facebook et de sites web. 

 

Sur Twitter, la représentativité socio démographique n'est pas du tout assurée, puisque l'on y trouve principalement des CSP+, des journalistes et des militants. En plus de ça, le principe « une personne, un vote » n'y est pas respecté. Aussi, une personne lambda va poster une fois par jour un message sur la présidentielle, alors qu'un militant le fera lui jusqu'à 2 000 fois. C'est comme s'il remplissait une urne avec 2 000 bulletins. Et si l'on regarde les indicateurs des réseaux sociaux, on capte la plupart du temps ceux qui ont une meilleure stratégie, ou ceux qui sont sur les catégories socio professionnelles les plus jeunes, comme Mélenchon par exemple. Donc Twitter ne peut en aucun cas permettre de prédire l'issue d'un scrutin. Tant que l'on a uniquement ces données-là  qui sont disponibles, tout sera biaisé par n'importe quelle opération de militant.

 

Si vous prenez Filteris, ils ajoutent en plus un biais énorme, la tonalité. Ce qui nous intéresse dans ce cas-là c'est le positif ou le négatif. Il faut savoir que le meilleur algorithme de tonalité a un taux d'échec de 30 %. C'est-à-dire que si l'on compare la façon dont un humain et l'algorithme perçoivent un message donné, dans 30 % des cas la machine se trompe. Donc si l'on compare deux candidats, il peut y avoir jusqu'à 60 % d'écart. Et il y a d'autres soucis. Prenons un tweet qui dirait « Macron est 45 fois plus fort que Fillon ». En théorie c'est bon pour Macron, c'est positif, seulement la machine va le classer de cette façon pour les deux personnes. On aggrave encore une fois le biais initial. 
 

 

Existerait-il une situation idéale dans laquelle les résultats d’une élection pourraient être prédits grâce aux informations récoltées sur les réseaux sociaux ?

Nicolas Vanderbiest : La seule possibilité, ce serait d'avoir une élection qui n'est pas serrée et que tout le monde soit sur Twitter, Facebook et autre, et ne puisse publier qu'un seul message. Donc les conditions sont loin d’être réunies.
 

 

Sur votre blog, vous avez parlé des comptes anti-Macron mis en place pour nuire au candidat durant la campagne. Pourriez-vous nous expliquer comment vous avez découvert ces comptes, ces stratégies, ces réseaux et leur logique ?
 

Nicolas Vanderbiest : Dans une première étude, je me suis intéressé aux personnes qui propagent ces fausses informations. J'ai d'abord pris les principales rumeurs qui concernaient un candidat, sur la plateforme Crosscheck, qui est une plateforme mise en place par des journalistes où sont récapitulés et démentis de nombreux hoax. J'en ai isolé 9 et je suis allé rechercher, par des marqueurs sémantiques (des termes comme « taxe », « propriétaire » et « Macron ») toutes les données à ce sujet. Si la rumeur provient d'un site, je vais également mettre son URL pour voir ceux qui le propagent, etc. Après, j'ai récupéré les bases de données de toutes les personnes qui ont répandu ces rumeurs et n'ai gardé que celles qui en avaient partagé au moins trois sur les neuf. À la suite de cette triangulation, je n'avais quasiment plus de journalistes. J'ai eu un faible taux parmi les supporters de Macron, mais ils étaient 10 ou 15 qui ont certainement tenté d'infirmer les rumeurs à chaque fois et qui ont été pris dans les échantillons. Par la suite, j'ai regardé comment ils se suivaient les uns les autres sur Twitter, pour voir ce qui structurait ces communautés. J’ai ainsi pu voir qu'il y avait parmi ces personnes une grande quantité de militants républicains et de lepénistes, qui propageaient ces rumeurs.
 

Une autre étude visait à récupérer deux à trois mois d'activités autour de Sputnik et de Russia Today pour isoler les utilisateurs qui partageaient le plus les contenus de ces deux médias pro-russes. J’avais isolé les 6 000 personnes les plus actives dans une base de données, c'est-à-dire ceux qui avaient partagé au moins neuf fois des contenus de Russia Today et de Sputnik. Et quand je croise ceux qui ont fait cela au moins pour cinq rumeurs sur les neuf, j'ai un taux de croisement de 92 %. Donc parmi ceux qui ont propagé cinq rumeurs sur neuf, ils sont 92 % à être également dans ma liste RT/Sputnik. Voilà ce que l'on peut dire sur ceux qui ont propagé la rumeur. 
 

J'ai aussi mis en place un dispositif qui visait, dans certains cas, à remonter dans le temps et voir comment la rumeur s'était propagée et qui l'avait lancée. Et j'ai mis le doigt sur une sorte de système de société écran. Il y a des gens, des officines, des personnes isolées qui ont créé une rumeur, qu'ils vont installer et qui vont faire croire à la légitimité de cette rumeur. Il y a un cas particulièrement intéressants qui concerne Emmanuel Macron et qui implique une copie conforme du journal Le Soir. Ils ont pris un nom de domaine qui s'en approchait, lesoir.info, fait une mise en forme semblable, avec les mêmes logos, les mêmes articles. Tout était pareil, à l'exception de la présence d'un article qui prétendait que Macron était financé par l'Arabie Saoudite. Et ce contenu a été propagé ensuite par des comptes qui ont été créés et qui étaient totalement factices, qui utilisaient des images disponibles sur le web. Ils ont envoyé le lien à des médias ainsi qu'à des militants anti-Macron, des fillionistes, des lepénistes, dans l'espoir que ceux-ci le propagent. Finalement, deux semaines après, ça a fini par fonctionner, via un compte de la patriosphère qui a tweeté l'article, on ne sait pas pourquoi. Ca a fait un peu de buzz, l'article a été récupéré par des sites complotistes qui mettent comme source de leur information « lesoir.info ». Depuis ces sites, cela a été propagés et Marion Maréchal Le Pen a tweeté la chose. À partir de là la rumeur s’est répandue. 
 

Il y a deux types de sociétés écrans pour disséminer les rumeurs. Les faux comptes, qui vont se charger de diriger les fausses informations vers les fillionistes et les lepénistes. Puis les sociétés écrans composées de lepénistes et anti-macronistes qui vont se charger de faire buzzer la chose et donner l'impression aux gens et aux journalistes que c'est d'eux que viennent les rumeurs, de telle façon qu'à aucun moment leur responsabilité ne puisse être mise en cause.
 

 

Quelles ont été les plus grosses intox, les plus partagées, les plus virulentes ? 

Nicolas Vanderbiest : La plus grosse a influencé l'élection, puis qu'elle a amené Alain Juppé, à 21h45, lors du deuxième débat des primaires de droite, à parler pendant trois minutes d'une rumeur du web qui contenait 30 000 à 40 000 tweets. Cette rumeur expliquait que le candidat, renommé "Ali Juppé", avait financé la construction d'une mosquée, sous-entendant qu'il était proche des Frères musulmans. S'il a décidé d'en parler, c'est parce qu'à un moment, des gens l'alpaguaient dans la rue à ce propos. 

 

Il a donc décidé d'en parler en direct à la télévision. Les personnes à l'origine de cette rumeur ont réussi à mettre Alain Juppé dans une situation de paradoxe réactionnel. La mise en paradoxe réactionnel, c'est l'instant où vous ne savez pas s’il faut répondre ou pas. Soit vous répondez à la rumeur mais vous faites à ce moment-là sa promotion, soit vous ne répondez pas et vous cautionnez l'émetteur sans aucune réponse. C'est un peu ce que l'on observe chez les journalistes par rapport à Trump : « Faut-il rapporter, faut-il réagir ou non ? »
 

  

Qu’aurait dû faire Alain Juppé selon vous ? 

 

Nicolas Vanderbiest : Je pense qu’il n’aurait pas dû réagir. Je n'ai pas de théorie ou de cadre, on procède par essai et erreur dans ces cas-là. Mais pour moi, si une rumeur politique se trouve sur le web, je la démens sur le web. Si une rumeur émerge à la télévision, je la démens à la télévision. Mais je ne vais surtout pas faire la promotion de ce genre de chose auprès d'un public qui n'a jamais été en contact avec cette rumeur. Les personnes présentes sur Twitter ont pu la voir passer. Mais il serait dangereux d'aller le mentionner à la télévision et d'en informer une personne âgée à Nice qui n'en avait jamais entendu parler. Parce qu'ensuite, elle risque d'aller sur internet pour se renseigner et va se retrouver sur les sites complotistes. Ceux-ci mettent en place un processus de mille-feuilles argumentatif, comme le décrit Gérald Bronner, qui, par la profusion d'indices, donne l'impression que tout ne peut pas être faux.
 

 

Vous parliez de retrouver les personnes qui propagent les intox mais pas de celles qui créent ces contenus. Est-il compliqué d'isoler ces individus ?

Nicolas Vanderbiest : J'ai rencontré ce cas, qui reprend le fonctionnement de la société écran comme j'ai pu le décrire tout à l'heure. Il s'agissait de la rumeur de collusions supposées entre Jérôme Cahuzac et Emmanuel macron, et qui utilisait les blogs de Mediapart. Je me suis réveillé un matin et j'ai consulté Twitter. D'un coup, je vois un compte de l'extrême droite qui raconte que Mediapart a révélé une affaire sur des comptes offshores de Macron, à rapprocher de Cahuzac. En fait l'opération venait d'être lancée devant moi, des faux comptes avaient été créés dans la nuit et avaient tenté de faire passer l'affaire en trending topic. Là, j'ai fait une erreur, en envoyant un message impulsivement à la personne. Après cela, en moins d'une heure, tout était supprimé. Je n'ai jamais donc pu voir comme se serait développée cette rumeur. Ces comptes qui étaient offshore auraient été utilisés à un moment par des personnes un peu plus en surface et pour lequel on peut identifier du contenu et auxquels on peut faire des collusions.

 

Ce que j'ai fait avec l’Arabie saoudite, c'est que les comptes existaient encore et qu'il était possible de voir quel type de propagande ils propageaient. J'ai pu constater que c'était de la propagande anti wahhabite, anti Arabie saoudite et donc qu'il y avait peu de chance que cela provienne de Russie, mais plutôt d'Iran. Il est en fait très difficile de venir à l'essence première de qui a fait quoi, à cause de ce système de société écran et cet enchaînement de partages. 

 

Comment expliquer qu'une intox puisse prendre ou pas ? 

Nicolas Vanderbiest : C'est impossible à dire. Eux-mêmes ne savent pas. Dans le cas de la rumeur sur l’Arabie saoudite, les envois à des comptes anti-macronistes ont eu lieu deux semaines avant que cela prenne réellement. Cela passe donc par d'autres sphères. Sur Twitter, il est très facile de récupérer tout le contenu, la surface. Mais derrière, il est compliqué de consulter ou récupérer les mails, les SMS, les « Messages privés » qui sont envoyés. Il faut vraiment être dans les réseaux qui les reçoivent. Pour Ali Juppé, il y avait la partie visible qui est sur Twitter et la partie invisible qui était dans des chaînes de mails et autres. 

 

Le jour du premier tour, quelqu'un qui milite pour Macron est venu vers moi pour me demander si j'avais entendu parler d'une rumeur en particulier : l'existence d'un réseau filloniste de petits vieux que l'on faisait voter à leur insu par procuration, et qui aurait déjà été utilisé par Nicolas Sarkozy.  J'ai regardé en surface pour voir s'il y avait des traces de cette histoire mais rien. Tout circulait par message privé. C’est très difficile d'évaluer d'où cela part dans ce genre de cas et d'évaluer la propagation du message.
 

 

Nous avons jusqu'ici beaucoup parlé des partisans de François Fillon et de Marine Le Pen qui partagent ces fausses informations, mais existe-t-il des comptes identifiés de macronistes, d’hamonistes ou « d'insoumis » qui partagent des rumeurs à l'encontre des candidats de la droite, comme Fillon, ou d'extrême droite, comme Marine Le Pen ?

Nicolas Vanderbiest : Non j’ai vu très peu de  « fake news ». Lorsque l’on observe les communautés qui partagent des articles de Sputnik et Russia Today, on n'y trouve pas de mélenchonistes. De la même façon, dans les contenus anti-macronistes que j'ai évoqués plus haut, il n'y avait pas de mélenchonistes. Cependant,des activités propagandistes anti-Macron, anti Fillon, ça il y en a. Un même comme  « rends l'argent » c'est quand même de la propagande anti-Fillon, même si c'est drôle. Lorsqu'on le traite d'imposteur, c'est aussi de la propagande. Donc il n'y a pas de « fake news » ni d'instrumentalisation d'histoires totalement fabriquées, mais c'est une autre forme de lutte contre l'adversaire. On ne peut juger que sur pièce et ce qu'il y a sur Twitter. Donc non il n'y a pas ce système de « fake news » et de création de faux du côté de ces communautés-là. 
 

Lorsque l'on observe les cartographies autour de #jevote, on remarque que lors de la journée du premier tour, Hamon et Macron ont arrêté la campagne numérique, leur militants ont cessé de retweeter les contenus contenant le mot-clé #jevote, à l'inverse des soutiens de Le Pen, Fillon, Mélenchon et Asselineau. Il y avait encore une activité de guerre numérique dans cette production éditoriale, qu'il n'y avait pas chez Hamon et Macron, c'est une différence d'activisme numérique claire. Ces deux derniers étaient nettement moins dans la décrédibilisation de l'adversaire, même s'il y a eu des opérations contre Marine Le Pen qui ont été menées par les militants d’Emmanuel Macron. 
 

 

Pour revenir sur vos techniques, quel a été le cheminement pour les développer ? Pensez-vous que les journalistes devraient les adopter ? Croyez-vous qu'elles soient nécessaires pour établir la vérité, vérifier les rumeurs, casser les « fake news » ?
 

Nicolas Vanderbiest : En tout cas ça apporte 10 fois plus d'information que simplement rapporter une rumeur, comme lorsque l'on fait un article disant « c'est une rumeur », en l'illustrant avec trois-quatre tweets, généralement ceux qui ont fait le plus de bruit. Ce que je fais n'est pas du fact checking. Par exemple, sur l'histoire avec l'Arabie saoudite, mon travail n'a pas été de dire « c'est faux » mais de dire « ça a été propagé de telle façon et par telle personne ». Cela permet de donner un autre cadrage à l'information qui n'est pas celui du journaliste. 

Il est très difficile de déconstruire le discours d'un complotiste  

 

 

Le journaliste va vérifier l'information, c’est son rôle. Moi ce n'est pas ce que je fais et c'est assez utile parce que, de temps en temps, il n'est pas possible de prouver qu'une information est fausse. Il est par exemple très difficile de déconstruire le discours d'un complotiste, parce qu'il  vous demande de prouver qu'une licorne rose n'existe pas. Il n'est pas toujours possible de faire du fact checking. Il n'est pas possible par exemple de prouver que l’Arabie saoudite ne finance pas Emmanuel Macron, du fait de l'opacité des financements.

Un journaliste peut-il faire ce que je fais ? À ma connaissance, difficilement. Ça demande un background rare, très rare qui est très demandé par l'État. Si quelqu'un avec ces connaissances et ces techniques travaillait pour la presse, c'est quelqu'un qui aurait la foi, il ferait une croix sur une très bonne rémunération. 

 

 L'AFP avait titré « les réseaux sociaux sont en feu », sans comprendre que c'est l'extrême droite qui avait mis le feu 

Pour ma part, je viens du monde de la recherche sur les entreprises, je fais une thèse sur la crise des organisations et je me suis rendu compte que ces techniques pouvaient aider au décryptage de faits sociétaux. J'ai pu observer comme ça petit à petit que Twitter et les réseaux sociaux devenaient de plus en plus importants dans la construction de l'information. Que ce soit dans la construction du contenu de l'article que dans la ligne éditoriale ou même la mise à l’agenda d’une information. Particulièrement en 2014, avec l'affaire du bikini de Reims. À la suite du bruit provoqué par l'extrême droite, l'AFP avait titré « les réseaux sociaux sont en feu », sans comprendre que c'est l'extrême droite qui avait mis le feu. L'information qui aurait dû rester cantonnée à la rubrique des chiens écrasés locale, a été propulsée sur la scène nationale. Notamment grâce à SOS Racisme, qui avait fait campagne autour de ça.

 

J'ai aussi été amené à traiter de plus en plus des cas d'actualité aussi dans la mesure où des entreprises ont essayé de tricher. Petit à petit, la ligne éditoriale de mon blog qui était principalement axé sur l'entreprise et les crises sur les réseaux sociaux a évolué de plus en plus vers un angle sociétal et un angle de « triche ». J'avais déjà des atouts et des techniques prêts pour faire ça. Et je les ai transposés pour les thématiques actuelles. Il  y a des gens qui découvrent tout cela alors que ça fait trois ou quatre ans que je travaille sur ce genre de problématiques.



À lire également dans le dossier De quoi les fake news sont-elles le symptôme ?
« La notion de post-vérité est beaucoup trop floue… », interview de Paul Jorion
À la source des fake news, l’interdépendance presse/réseaux sociaux, par Benjamin Lagues
Pour combattre la post-vérité, les médias condamnés à innover, par Jean-Marie Charon
« Post-vérité » : nouveau mot ou nouvelles réalités ?, par Arnaud Mercier
« Le fact-checking a une longue histoire », interview de Laurent Bigot
« Le journalisme ne se réduit pas au fact-checking», interview de Pauline Moullot
7 façons d’intégrer le fact-checking dans un média en ligne, par Xavier Eutrope
Les fake news, miroir grossissant des luttes d'influences, par Louise Merzeau

Ne passez pas à côté de nos analyses

Pour ne rien rater de l’analyse des médias par nos experts,
abonnez-vous gratuitement aux alertes La Revue des médias.

Retrouvez-nous sur vos réseaux sociaux favoris

Autres épisodes de la série

Laurent Bigot : « Le fact-checking a une longue histoire »

Laurent Bigot : « Le fact-checking a une longue histoire »

Pourquoi certains médias créent-ils des rubriques de « fact-checking » ? Quelle est l’histoire de cette pratique ? Peut-on mesurer son efficacité ? Entretien avec Laurent Bigot.