Le chercheur Jérémy Nicey lors d'une interview

© Crédits photo : DR.

Notre-Dame : « Youtube a montré les limites du fact checking automatisé »

Le 15 avril, Notre-Dame s’est embrasée. Sur Youtube, un outil de fact checking déployé aux États-Unis et en Corée du Sud a associé les images de la cathédrale en feu aux événements du 11 septembre. Nous avons essayé de comprendre pourquoi avec  le chercheur Jérémie Nicey.

Temps de lecture : 12 min
Jérémie Nicey est maître de conférences et responsable de la licence professionnelle journalisme de l’École publique de journalisme de Tours. Il est également responsable scientifique du projet de recherche ANR VIJIE (Vérification de l'information dans le journalisme, sur internet et dans l'espace public), au sein du laboratoire Prim de l’université de Tours.

Pouvez-vous expliquer ce qu’il s’est passé sur les vidéos montrant l’incendie de Notre-Dame sur Youtube ?

Jérémie Nicey : YouTube a mis en place un dispositif qui associe une image avec un bandeau d’alerte et renvoie sur Wikipédia et d’autres organismes associés. Dans les deux pays dans lesquels il est actif, à savoir les États-Unis et la Corée du Sud, ce dispositif a associé les images de Notre-Dame de Paris en train de brûler aux événements du 11 septembre 2001, puisque, semble-t-il, les algorithmes ont détecté une similarité d'images. Le problème, évidemment, est que cela ne correspondait pas au bon événement.

Ce dispositif d'alerte a été instauré récemment pour pouvoir parer aux contenus douteux qui circulent sur la plateforme en donnant des éléments de contexte. L'idée, ici est de contrer le complotisme puisque l'on sait que les vidéos qui circulent le plus sur le Net sont celles qui remettent en cause l’origine de ce type d’événements.

Capture d'écran d'un tweet du journaliste Joshua Benton. Crédits : Joshua Benton / Twitter.

Pour autant, cela peut être contre-productif. Si vous êtes conspirationniste et pensez que Notre-Dame a été brûlée intentionnellement, par exemple pour pouvoir détourner l’attention des problèmes politiques, vous vous dites que Google voit le complot partout et que c’est suspicieux. Je pense que lire en dessous d’une vidéo un message mentionnant "attention au complot" nourrit le complot lui-même. Auprès de certaines populations, l'élément de contexte n'est pas suffisant. Énormément de jeunes s'informent via Youtube par exemple. Un adolescent de 13 ans qui regarde la vidéo aura peut-être entendu parler des attentats de 2001, souvent vaguement car il n’était pas encore né. Il voit sur la vidéo que le bâtiment brûle et  que le bandeau mentionne que ce sont les attentats de 2001. Cette situation peut attiser une curiosité et le pousser à aller voir des vidéos conspirationnistes et d’autres vidéos qu’il n’aurait peut-être jamais vues. Dans certains cas, cela peut donc renforcer le complotisme ; mais cette hypothèse reste à valider et cet impact à mesurer, ce que l’on ne parvient pas réellement à faire aujourd’hui.

On ignore par ailleurs pourquoi seuls les États-Unis et la Corée du Sud sont concernés. Est-ce parce que ce sont les deux pays sur lesquels la plateforme cherche le plus à se mettre en valeur ? Est-ce que l'algorithme détecte que ce serait là-bas que les contenus complotistes vont le plus circuler ? Pourquoi le bandeau n’a-t-il pas été ajouté aux vidéos en France ? Pour l'instant, ça n'a pas été totalement questionné et de la part de Google, ça n'a pas été énoncé ou explicité. Je peux entendre que Google n’ait pas envie de le déployer mondialement d'un coup. Mais dans ce cas-là, autant aller chercher des pays plus petits de moindre envergure, sur lesquels cela sera moins visible, non ?

 

 « Les filtres sont toujours un peu dangereux. »

 

Si l'algorithme devient performant à l’avenir et qu’il décide de faire apparaître ce type de bandeau de contextualisation dans certains pays plutôt que d'autres, je veux que l’on nous explique pour quelles raisons dans certains pays il n'apparaîtra pas. Parce que l'algorithme pensera que les gens sont moins bêtes dans une partie du monde et qu'ils n'ont pas besoin du contexte ? Par exemple, si le bandeau ne s’affiche pas en Suède mais qu’il s’affiche dans un autre pays, cela laisserait penser que 100 % des Suédois auraient tout compris ou qu’aucun Suédois n’est complotiste. Or cela n’est évidemment pas le cas. Il faut donc le déployer mondialement, ou alors que Google explique ses choix, avec davantage de transparence.

Comment arrive-t-on à cette situation dans laquelle un géant du Net entraîne la propagation d’une fausse information alors qu'il essaie de lutter contre la désinformation ? 

Jérémie Nicey : Ce n’est pas à proprement parler la diffusion d’une fausse information dans la mesure où il s'agit simplement d'un bandeau de contextualisation. Effectivement, cela pose problème car on a l'impression lorsque l’on ouvre la vidéo qu’elle concerne les attentats du 11 septembre. Mais je pense qu’il faut minimiser son impact car il s’agit d’un petit bandeau de bas d’écran alors que dans la fenêtre de visionnage, les titres et le descriptif de l'image expliquent bien qu’il s’agit de Notre-Dame de Paris. Donc, ce n'est pas une diffusion de fausse information en tant que telle.

En revanche, même s’il existe une volonté de lutter contre la circulation de désinformation, cette faille prouve que ces plateformes ne s'y prennent pas assez bien car leurs investissements sont sans doute insuffisants. Google se retrouve ici dans la position de l'arroseur arrosé, c'est-à-dire que le groupe veut lutter contre ce qui est douteux, imprécis et faux, mais finit par l’alimenter. Si Google s’implique dans la lutte contre les fausses informations, c’est dans son intérêt. Le moteur de recherche cherche à obtenir une meilleure image et à rassurer les annonceurs. Le nettoyage numérique des fausses informations débute, mais ne rencontre pas la même viralité que les contenus dénoncés. D’une certaine façon, les plateformes s’y retrouvent car elles gagnent de l'argent grâce aux annonceurs, quelle que soit la nature des contenus. Les contenus douteux et malveillants, sont souvent ceux qui circulent le plus ou qui sont les plus partagés et les plus vus, ils sont donc très rentables.

« Il faut nuancer l’impact des fausses informations. »

D’autre part, il faut nuancer l’impact des fausses informations. Si, certes, ce sont des contenus qui circulent beaucoup, certaines études montrent qu’il n'est pas dit que les gens y croient, de la même manière qu’il est possible d’énoncer des choses sans forcément y croire dans les cercles familiaux, professionnels ou privés. Si impact il y a un, il faut le considérer du côté des personnes qui adhéraient à ces théories et vont être renforcées dans leur croyance.

En matière de vote, des études démontrent un faible impact, il faut donc relativiser.  Si l’on observe le nombre de partages, on peut prendre peur, car ce sont parfois des données élevées, et pour les journalistes, cela représente une forme de concurrence. Il y a des raisons de s’en alarmer à cause du temps d'attention consacré. Mais il faut parier sur l'intelligence collective et individuelle, tout en renforçant l'esprit critique, en formant encore davantage et pas seulement au sein des écoles. Il faut des espaces de paroles pour que les gens, à un moment ou un autre, puissent s'armer et peut-être même, un jour, trouver cela complètement bidon ou rire de ce que sont les fausses informations. 

Faut-il douter de l'apport des algorithmes, et plus généralement de la technologie, en matière de fact checking ?

Jérémie Nicey : La puissance des algorithmes est vérifiée, à la fois dans la façon dont ils exploitent les traces, les liens entre les membres d'une communauté pour se conseiller tel ou tel contenu ou pour y associer des envois de publicités ciblées, selon l'historique de navigation. Donc, les algorithmes sont puissants, ils sont même au cœur de l’économie de ces géants du numérique.

Dans le cas présent, cette puissance se transforme en nuisance. Ce qui semblait être une chose plus efficace que l’humain s’avère s’être trompé.  Alors que 95 % de la population mondiale ne se serait pas faite avoir, l’algorithme a failli. Ce qui pose souvent problème avec les algorithmes ce sont les failles liées au contexte. Un algorithme n'arrive pas bien à repérer l'ironie par exemple. Il faut que les géants du Net travaillent encore beaucoup.

« Les robots ne peuvent pas tout, il faut qu’ils soient guidés. » 

L’erreur de Youtube montre les limites du fact checking automatisé. Mais, quelque part, cela met aussi en évidence le fait que l'esprit critique humain, l'intelligence non artificielle a encore toute son utilité, et que ce qui est intéressant, c'est de la coupler avec cette technologie. Les robots ne peuvent pas tout, il faut qu’ils soient guidés. D’ailleurs il ne faut pas oublier que derrière chaque robot, chaque intelligence artificielle, chaque algorithme, chaque paramétrage, il y a un humain.

 

« Ce qui est artificiel n’est pas forcément raisonné. »

Quand on évoque l’intelligence artificielle, il faut savoir à quoi l’on se réfère. Ce qui est intéressant, c'est que le terme « artificiel » lui-même dit déjà qu'on est un peu dans l'erreur : ce qui est artificiel, c'est ce qui est factice, stéréotypé, arbitraire… Toute la littérature actuelle sur l'IA montre que les usagers et les professionnels qui y travaillent font preuve d’un grand enthousiasme, mais aussi d’une grande prudence. Dans le cas présent, l’IA n'aide pas du tout, y compris parce que ce qui est artificiel n'est pas forcément raisonné.

Si, par exemple, les algorithmes des plateformes recommandent des vidéos complotistes, n’ont-elles pas une responsabilité dans le développement de la désinformation ?   

Jérémie Nicey : Cette responsabilité est évidente parce que ce sont des espaces de dialogue qui ont été longtemps non modérés. Même si au départ l’intention n’est pas de diffuser ce type de message, la nature humaine fait que certains y trouvent un intérêt. Sur l'année 2016 les réseaux sociaux ont pu avoir un impact sur la circulation des messages électoraux concernant le Brexit au Royaume-Uni et la présidentielle en faveur de Donald Trump, mais moins sur le vote lui-même qui aurait sans doute pris la même tournure, à quelques nuances près.

Mais il reste gênant que, les personnes confrontées à des contenus n’ont pas toujours les armes suffisantes pour déterminer leur caractère douteux.  Ils n’ont pas nécessairement les éléments de contexte pour discerner le vrai du faux. Même des requêtes assez précises, quand vous les effectuez sur un moteur de recherche, peuvent demander du temps pour être sûr de tomber sur les bons documents. Parfois, vous pensez trouver les documents ou l’information que vous cherchez et vous vous rendez compte qu’ils datent d’il y a plusieurs années. Ces derniers ne sont peut-être plus viables car beaucoup de choses ont pu se passer depuis. C'est encore plus problématique dans le cas de la justice : les verdicts parfois changent après que des justiciables aient fait appel et obtiennent gain de cause.

« L’opacité est le plus gros problème du moteur de recherche de Google. » 

 

Il ne faut pas penser que les fausses informations ne concernent que les gens peu éduqués. Même pour les populations les plus initiées, il est difficile de se retrouver dans le fouillis de ce qu'est le moteur de recherche Google. En réalité, le plus gros problème est celui de son opacité : on ne sait pas comment il fonctionne. Si tout d'un coup, j'apprends quelque chose sur YouTube ou sur Facebook, et que je souhaite recouper l’information sur Google, il y a cette opacité de l'algorithme qui fait que même ma requête ne trouvera pas forcément ni satisfaction ni pertinence absolue. Et le pire c’est que ce sont les contenus les plus partagés qui sont les plus visibles. Si je mets en doute une information que j’ai entendue et que je veux la recouper ailleurs, l’information sera écrite un peu différemment mais racontera souvent la même chose. Il faut prendre du recul sur les informations qui circulent beaucoup sur les réseaux sociaux et s’en méfier.

Comment les géants du numérique, notamment Google et Facebook, peuvent-elles lutter plus efficacement contre les fake news?

Jérémie Nicey : Cela fait déjà trois ans que les plateformes numériques empruntent cette voie, même si elles le font de manière insuffisante. Le choc de l'élection de Donald Trump les a fait réagir car elles ont été montrées du doigt pour avoir permis son élection, alors qu’il est possible de relativiser cette accusation.

En réalité, les plateformes ne s’investissent pas avec assez de vigueur dans la lutte contre les fausses informations. Les dispositifs mis en place sont insuffisants, en tout cas pas à la hauteur d’autres innovations qu’ils financent. Il faut se demander si c’est vers elles à qui l’on doit confier toujours plus notre temps d'attention, mais surtout notre temps de confiance et de fiabilité. Je pense que non. Il faut équilibrer ses consommations. Les informations devraient circuler sur les quatre supports que sont la presse écrite imprimée, la radio, la télé et le Web. C’est là où devrait revenir le public.

Il faut faire en sorte que les gens sachent que ce qui circule sur les réseaux sociaux possède un soupçon de non-fiabilité, c'est-à-dire que les gens aient le réflexe de se dire : « Cette information est apparue sur un réseau social, je peux la lire, mais je peux fortement la penser comme bidon ou comme à relativiser. Elle me met peut-être en alerte sur un événement, mais je vais devoir en compléter ma lecture et ma connaissance ailleurs ». Nous sommes dans la même situation lorsque quelqu'un que vous ne connaissez pas évoque un fait dans la rue : vous allez recouper l'information, en parler à d'autres, le lire dans les journaux ou écouter la radio, qui sont des espaces fiables. Intuitivement, dès que les enfants entendent quelque chose qui les interpelle, ils demandent : «Est-ce vrai ? » Ils vont voir quelqu'un de référence, souvent les parents. Nous avons toujours, à un moment ou un autre, une personne, un lieu ou un média de référence, pour s'assurer de la véracité d'une information.

Que pensez-vous des investissements opérés dans le fact checking depuis quelques années, notamment dans certaines rédactions ?

Jérémie Nicey : Après des années de défiance, de concurrence et de difficultés économiques, que ces géants du Net fassent travailler des facts checkers est, pour le journalisme, bon signe parce que cela donne une légitimité à ceux qui savent faire et cela prouve que cette expertise est importante. D’un autre côté, pour les rédactions, il y a aussi une dimension marketing : « Le fact checking, on sait le faire, des poids lourds du numérique nous font confiance. On est capable d’apporter des éléments pour permettre au lecteur de se repérer, et évidemment des informations fiables. ».

« En France, la lutte opérée contre les fausses informations prend un fort caractère marketing. »

Ce qui pose problème, pour la France, c'est que depuis deux ans, la lutte opérée contre les fausses informations prend un fort caractère marketing. Les plateformes communiquent plus ou moins sur le mode « Nous luttons contre les fake news pour montrer que nous sommes actifs en  mettant en place des dispositifs réduits et en créant des partenariats avec ceux qui savent déjà faire, comme les fact checkers au sein des rédactions journalistiques ».

Sur Check News, le site de fact checking de Libération, la rédaction a révélé recevoir environ 1 000 dollars par information vérifiée @Libération a perçu 245 000 dollars en 2018 de la part de Facebook pour 249 articles publié et entré dans la base Facebook @. Pourquoi est-ce financé à cette hauteur-là ? Et surtout est-ce qu'il n'y a pas une forme de syndrome de Stockholm ? Un média fiable pourrait très bien se contenter des espaces qui sont les siens pour diffuser les informations vraies, et laisser ce qui est de l'ordre de l'information fausse ou douteuse sur les réseaux sociaux, et faire le pari que les gens s'en détourneront avec le temps.

Ces financements sont-ils une bonne nouvelle pour le journalisme de manière générale ?   

Jérémie Nicey : Trouver des financeurs et des partenaires dans un contexte de précarité et de difficultés financières des rédactions interroge sur le fait que des partenaires d'ordre privé et commerciaux financent les activités du journalisme. Même si, ce modèle n’est pas nouveau puisque c’est le modèle dominant depuis le XIXᵉ siècle. C’est davantage l’industrie publicitaire qui va permettre d'avoir un modèle économique stable, que le public qui l’achète régulièrement.

« Il serait sans doute plus intéressant que des fondations puissantes économiquement financent le fact checking. »

Il serait sans doute plus intéressant que des fondations puissantes économiquement financent le fact checking. Certaines le font pour l'instant dans des proportions insuffisantes. Cela donne un peu l’impression que les plateformes lâchent quelques piécettes en espérant que les journalistes réalisent un bon travail et que cela rejaillisse sur leur notoriété et sur leur fiabilité. Des piécettes qui vous sont dues puisque le trafic qu’apportent les médias à Facebook, ne leur est pas rétribué.

Avec mon collègue Laurent Bigot, auteur d’une thèse pionnière en France sur le fact checking, nous avons continué d’interroger ces journalistes spécialisés pour en savoir plus. En réalité, ils connaissent complètement les limites de ce système, et les énoncent ouvertement, mais sont animés par une dimension citoyenne. Ils espèrent que cela permettra de toucher un public plus large qu’ils n’arrivaient pas à toucher jusque-là. Et, dans une certaine mesure, en tant que chercheurs, mes collègues et moi espérons qu’en interrogeant ces phénomènes nous parvenons aussi à ce type de sensibilisation.

Ne passez pas à côté de nos analyses

Pour ne rien rater de l’analyse des médias par nos experts,
abonnez-vous gratuitement aux alertes La Revue des médias.

Retrouvez-nous sur vos réseaux sociaux favoris

À lire également

4Shbab : MTV version islamique

Lancée en 2009, la chaîne égyptienne 4Shbab (pour les jeunes) vise à « délivrer le message de l'Islam » à la jeune génération. Et pour cela, quoi de plus attractif qu'une chaîne musicale ?