Un présentateur de télé composé de multiples éléments de son visage pris à différents moments.

© Crédits photo : Illustration : Yann Bastard.

Les deepfakes, une « arme d’illusion massive » ?

Cheap fakes, shallow fakes et autres montages trompeurs se répandent sur Internet, et ce sont même parfois les gouvernements qui les relaient. S’ils n’inquiètent pas les rédactions pour l’instant, ils pourraient représenter un défi pour les journalistes.

Temps de lecture : 11 min

Demain, voir ne sera plus forcément croire. L’intelligence artificielle bouscule les repères que nos sens avaient mis plusieurs millions d’années à fabriquer. Les deepfakes détrônent Photoshop, poussent la manipulation un cran plus loin et fabriquent de l’incertitude dans un monde où l’information se heurte aux croyances, aux rumeurs, au qu'en-dira-t-on.  Questions éthiques, défis techniques… comment réagissent journalistes et rédactions face à cette nouvelle donne ? Représente-t-elle une menace ou au contraire, une opportunité ?

Une nouvelle façon de créer des images

Derrière ce qu’on désigne comme « deepfakes » se cache une nouvelle façon de créer des contenus audiovisuels. Une méthode dans laquelle la part d’expertise humaine n’est plus centrée sur les talents visuels d’un créateur, mais sur sa capacité à manipuler les modèles et les langages informatiques ad hoc.

Ces vidéos, sons, textes ou images sont fabriqués à l’aide d’algorithmes relevant du champ de l’intelligence artificielle : les réseaux de neurones artificiels. Ceux-ci permettent des manipulations presque imperceptibles du visage, de la voix ou du corps, notamment les « faceswaps », qui consistent à greffer numériquement le visage d’une personne sur une autre.

Ces deepfakes, qu’on appelle aussi médias synthétiques, héritent leur nom d’un utilisateur de la plateforme Reddit (u/deepfakes) qui fabriquait des séquences pornographiques détournées en greffant numériquement le visage de célébrités (Gal Gadot, Daisy Ridley) sur le corps d’actrices de films pour adultes.

In Event of Moon Disaster
In Event of Moon Disaster est une vidéo qui recrée le discours écrit, mais jamais prononcé, de Richard Nixon dans l’éventualité où les astronautes d’Apollo 11 se retrouveraient coincés sur la Lune après leur premier alunissage. Crédit : In Event of Moon Disaster.

Dès janvier 2018, les médias américains s’emparent du sujet. Wired, Motherboard, le Washington Post, le New York Times et bien d’autres s’alarment de l’apparition des deepfakes et dissèquent leurs effets potentiels sur la sécurité nationale américaine, la démocratie et l’information.

Il faut dire qu’aux États-Unis, la présidence Trump a bouleversé le contexte politico-médiatique en institutionnalisant le mensonge et la manipulation comme aucun président ne l’avait fait avant lui. 20 000 : c’est le nombre de déclarations fausses ou ambigües du président américain relevées par le Washington Post. L’invention, en 2017, de l’expression
« faits alternatifs » par Kellyanne Conway, alors conseillère de Donald Trump, a galvanisé une communauté de conspirationnistes américains déjà très active. Plus récemment, les tensions et les inégalités sociales révélées à l’occasion de la pandémie de Covid-19 ont renforcé la polarisation politique et implanté dans le paysage des groupes complotistes jusque-là marginaux comme les « QAnon », faussant un débat démocratique déjà fortement perturbé. Dans ce contexte, la possibilité d’une « arme d’illusion massive » capable de tromper les observateurs les plus aguerris alimente de plus belle les accusations de désinformation. L’hypothèse même de l’existence des deepfakes jette la suspicion sur l’ensemble des contenus audiovisuels d’information. Si je ne peux plus me fier à ce que je vois, comment croire à ce qui m’est présenté dans les médias ?

Une première rencontre avec le grand public

« President Trump is a total and complete dipshit » (« Le président Trump est un abruti complet ») lance un Barack Obama étrangement détendu. La vidéo dans laquelle l’ex-président tient ces propos et qui fait le tour du net en totalisant près de 7 millions de vues est bien entendu un deepfake. En avril 2018, le comédien et réalisateur américain Jordan Peele réalise, en collaboration avec BuzzFeed News, cet édito vidéo dans lequel il alerte le public sur les potentiels dangers des médias synthétiques. Ce qui était encore un sujet de niche, réservé aux experts de la tech et à quelques « geeks », devient un sujet d’inquiétude, un buzzword, un thème à traiter sur les plateaux TV.

Dans le même temps, sur la plateforme Reddit, des créateurs commencent à émerger dans les forums qui ont vu naître les deepfakes. Leurs expériences se retrouvent rapidement sur YouTube pour les plus sages, et sur des sites pornographiques pour les plus extrêmes. À mesure que le public découvre les créations de CtrlShiftFace, Sham00k ou Speaking of AI, le terme deepfake se propage lentement sur le web et les réseaux sociaux.

Comment discerner le vrai du faux ? Comment identifier la manipulation ? Qui sont les créateurs de deepfakes ? Peuvent-ils devenir des instruments de déstabilisation, voire de désinformation ?

Evolution fake news deep fakes.
En rouge : fake news, en bleu : deepfakes — les deux termes se rejoignent en popularité de recherche de 2015 à 2020. Crédit : capture d'écran Google.

En quelques mois, l’inquiétude gagne d’autres pays, de la Nouvelle-Zélande à la Corée du Sud, du Japon à la Russie, du Gabon à la Belgique, en passant par le Brésil, l’Inde, le Pakistan, la Grande-Bretagne ou la France.

Certains juristes se penchent sur les implications légales des deepfakes (comme en Nouvelle-Zélande ou en Australie), d’autres sur les problématiques liées au harcèlement, à la vie privée, au droit d’auteur, à la désinformation.

Nombre de journalistes et de chercheurs voient dans l’émergence du phénomène l’annonce d’une catastrophe imminente. En août dernier, le livre de Nina Schick, une consultante politique qui a collaboré avec l’équipe de campagne d’Emmanuel Macron en 2017, surfe sur la vague anxiogène qui entoure les deepfakes avec un titre évocateur : Deep Fakes and the Infocalypse : What You Urgently Need To Know (Les Deepfakes et l’infocalypse : ce que vous devez absolument savoir). Derrière le néologisme marquant se cache un catastrophisme contre-productif qui tétanise même les plus optimistes d’entre nous. Les deepfakes nous annoncent l’inéluctable fin d’un monde.

Fait-on face à une infocalypse ?

Les deepfakes font-ils peur aux journalistes ? Une « infocalypse » se profile-t-elle à l’horizon ? La plupart des fact-checkeurs professionnels interrogés dans le cadre de cet article ne semblent pas particulièrement inquiets de l’arrivée des médias synthétiques, même s’ils restent attentifs aux évolutions des deepfakes et à leur actualité.

« On nous a dit : attention, le pire arrive, c’est la catastrophe, raconte Grégoire Lemarchand, rédacteur en chef de Factuel, le service de fact-checking de l’AFP. Pour les élections américaines, pour les scrutins en Europe, ça va être l’enfer. Mais pour l’instant, on n’a encore rien vu. » Une position que partage Mathilde Cousin de Fake Off, chez 20 Minutes : « En France, on n’a pas encore été confrontés à ce type de vidéos. Aux États-Unis non plus, d’ailleurs. Les vidéos manipulées que l’on rencontre reposent sur des techniques plus accessibles au commun des mortels. »

Le Monde.fr a développé, depuis plusieurs années, une expertise reconnue en matière d’analyse et de vérification de documents vidéos. « Les deepfakes font partie des objets pour lesquels on prend le temps d’agir », explique Charles-Henry Groult, chef du service vidéo du Monde.fr. Une méthodologie précise a été mise en place et le temps consacré à la vérification des documents reçus par la rédaction permet de ne rien laisser au hasard : « Pour vérifier une vidéo, on travaille sur les métadonnées des images, on récupère beaucoup d’informations très importantes comme la géolocalisation ou l’heure de prise de vue à la seconde près. »

À l’instar de Factuel, le service de vérification de l’AFP ou des Observateurs, celui de France 24, c’est davantage la prolifération de ce qu’on appelle les shallow fakes ou cheap fakes qui préoccupe les journalistes du Monde.fr.

Les shallow fakes reposent sur des techniques de montage traditionnelles : une phrase coupée au bon moment ou un ralentissement de l’image suffisent à profondément changer le sens d’une séquence. La vidéo de Nancy Pelosi diffusée en mai 2019 illustre parfaitement le danger des shallow fakes. Habillement ralentie, elle montre la présidente de la chambre des représentants américains présentant des difficultés d’élocution, suggérant une consommation abusive d’alcool. Partagée plus de 2 millions de fois sur Facebook, ses effets ont été dévastateurs. Plus récemment, Joe Biden, candidat démocrate à la présidentielle américaine, a lui aussi été victime de shallow fake. Dans une vidéo virale partagée par la Maison-Blanche, il annonçait soutenir Donald Trump. En réalité, la phrase avait été coupée.

Malgré de récentes avancées, les deepfakes sont, eux, compliqués à réaliser.

Ils demandent parfois jusqu’à quatre ou cinq semaines de calcul à un très bon ordinateur et nécessitent une bonne compréhension des logiciels et des modèles d’algorithmes employés. Par ailleurs, pour être convaincant, il faut utiliser une base de données de qualité pas toujours facile à constituer. Enfin, si les deepfakes vidéo s’améliorent rapidement et arrivent à tromper l’œil exercé, les deepfakes audio ne sont quant à eux pas encore au niveau et peuvent être facilement détectés.

La perspective d’un deepfake capable de tromper le public n’est pourtant pas à écarter à court terme. « Ça fait partie de notre mission de scruter les réseaux sociaux et de veiller à bien détecter ce type de vidéos manipulées », explique Alexandre Capron, des Observateurs de France 24, qui a travaillé sur le deepfake dont a été victime Christophe Guilhou, l’ambassadeur de France au Cameroun. « Quand la vidéo est apparue sur Whatsapp, nous avons fait un travail classique de journaliste. Le problème, ce n’est pas le deepfake, mais le contexte dans lequel il est diffusé. Si une vidéo nous parvient via un message Whatsapp, on ne se méfie pas nécessairement, d’autant moins si on connait l’expéditeur. »

Certains services sont en contact avec des startups qui proposent de tester des outils de détection. Les Observateurs font parfois appel à InVID, un logiciel de vérification proposé par le MediaLab de l’AFP pour travailler sur certains documents. L’investissement dans des solutions logicielles n’est pourtant pas la priorité, pour trois raisons. Tout d’abord, les journalistes privilégient le facteur humain, la vérification croisée des sources, l’analyse du contexte, le témoignage, en un mot : l’enquête. Les outils de détection viendront peut-être en aide aux fact-checkers, mais « jusque-là, ceux que nous avons testés ne sont pas très efficaces et nous en avons trompé quelques-uns, confie Grégoire Lemarchand. Les algorithmes sont entraînés sur des bases de données trop petites, pas assez spécifiques à l’information. » Ensuite, la situation économique de la presse est mauvaise, donc ses moyens limités sont affectés avec prudence, en priorité à la rédaction. Enfin, il est plus facile de s’associer à des startups ou des universités qui disposent des compétences, des outils d’analyse et qui ont développé les méthodologies ad hoc plutôt que de développer un service en interne. À chacun son métier.

capture d'écran deepfakery
La série « Deepfakery » produite par Witness.org et le MIT open Doc Lab se penche sur le phénomène des deepfakes. Crédit : Witness.org

Outre-Atlantique, les choses sont un peu plus nuancées, mais la réflexion est à peu près la même. Des organisations comme First Draft ou Witness sont particulièrement actives sur le sujet : à l’instar des fact-checkeurs français, elles ont bien compris que les deepfakes n’étaient pas un sujet d’inquiétude immédiat. Elles entament pourtant des campagnes de prévention et d’information auprès des rédactions du monde entier en animant des ateliers de réflexion et des groupes de travail. « Les rédactions européennes sont intéressées par les outils de détection quand les rédactions hors États-Unis et Europe sont inquiètes de ne pas pouvoir accéder à ces outils », confie Sam Gregory, de l’ONG Witness.

Les deepfakes sont-ils pour autant inoffensifs ?

Pour le moment, les deepfakes n’ont pas provoqué de catastrophes politiques, économiques, sociales ou sanitaires, pas même pendant la pandémie de Covid-19. Quelques-uns ont semé le doute chez certains internautes — comme ceux de Boris Johnson et Jeremy Corbyn par Bill Posters pendant la campagne du Brexit, ou celui de Sophie Wilmès par Extinction Rebellion en Belgique —, mais leur influence est restée marginale. L’inquiétude est ailleurs.

Tout d’abord, il y a les attaques personnelles contre des journalistes, que ce soit pour les discréditer ou les décourager d’enquêter. Elles se multiplient en Europe de l’Est, en Asie et en Amérique latine. Rana Ayyub, journaliste d’investigation indienne, a été victime de deep-porns (deepfakes pornographiques) diffusés sur le net en représailles à une enquête qu’elle avait publié. « D’autres cas nous ont été rapportés, explique Sam Gregory, mais les journalistes préfèrent les passer sous silence pour ne pas nourrir la bête. »

Phénomène plus inquiétant, le « déni plausible ». Il permet à n’importe quel individu apparaissant dans une vidéo compromettante de prétendre qu’il s’agit d’un deepfake. Charge faite aux accusateurs d’apporter la preuve de l’authenticité des documents présentés. On peut imaginer que si les deepfakes avaient existé pendant la campagne présidentielle américaine de 2016, Donald Trump aurait prétendu que la vidéo où on l’entend prononcer la phrase « Grab them by the pussy » était en réalité un deepfake.  La crédibilité du document aurait-elle été entachée, n’entraînant aucun scandale ?

« Le déni plausible est un phénomène très problématique qui inquiète beaucoup de rédactions, notamment en Amérique latine et en Afrique, détaille Sam Gregory. La crédibilité des enquêtes qui reposent sur des vidéos d’amateurs peut être très affectée si l’argument fait mouche auprès du public. » Une fois que le doute s’installe, il est difficile de faire marche arrière. Le danger des deepfakes, c’est donc que s’impose dans les esprits l’idée que, derrière toute chose, la manipulation est possible et qu’il nous sera impossible de la détecter.

Ali Bongo
La vidéo du Washington Post revient sur la tentative de coup d’État qu’une vidéo controversée d’Ali Bongo diffusée en janvier 2019, perçue comme un deepfake par l’opposition gabonaise, aurait contribué à déclencher. Crédit : capture d'écran Gabon 24.

Au Gabon, au Cameroun ou aux États-Unis, les deepfakes ont servi d’excuse à des prises de position politiques plus ou moins sérieuses, allant du coup d’État raté en janvier 2019 au Gabon contre Ali Bongo, à la théorie du complot farfelue (la mort de George Floyd serait un deepfake de la candidate républicaine Winnie Heartstrong).

Sur Twitter, on ne compte plus les discussions qui relaient le hashtag #deepfake pour remettre en cause l’authenticité d’une vidéo ou d’un propos. Les deepfakes renforcent la croyance en un monde de manipulation et de conspiration.

« Je vois quatre grandes évolutions des deepfakes qui peuvent nous inquiéter dans les mois à venir, prévient Sam Gregory. La première concerne la qualité des deepfakes audio, qui ne cesse de s’améliorer et qui va bientôt rendre la détection extrêmement difficile. La seconde c’est la création de deepfakes haute résolution à l’aide d’une simple image. Les essais sont déjà très convaincants. Troisième danger, l’effacement d’objets ou la modification d’une scène. Enfin, la commercialisation d’application mobiles qui popularisent le faceswap et les deepfakes. »

Les deepfakes peuvent-ils être utiles aux journalistes ?

Comme toute technologie, les deepfakes sont à la fois poison et remède. Côté remède, il faut citer notamment le documentaire de David France, Welcome to Chechnya, qui emploie la technologie derrière certains deepfakes pour masquer le visage de ses protagonistes, des membres de la communauté LGBTQIA+ tchétchène persécutés par le gouvernement de Ramzan Kadyrov et parfois les propres membres de leur famille. Afin de préserver leur anonymat et leur sécurité, David France a donc décidé d’opter pour la technique du faceswap, celle-ci permettant de préserver les expressions du visage et certaines émotions, tout en offrant une protection solide. Les visages que le spectateur découvre dans le documentaire ne sont donc pas ceux des protagonistes. Ils appartiennent à une vingtaine d’activistes LGBTQIA+ américains que David France et son équipe ont numérisé sous tous les angles possibles, dans les conditions de lumières proches de celles du film. L’effet se fait oublier après quelques minutes et seul un twist  (« rebondissement ») dans le documentaire nous rappellera le trucage.

Capture d'écran welcome to chechnya.
Welcome to Chechnya est un documentaire de David France qui utilise la technologie des deepfakes pour protéger ses protagonistes. Crédit : capture d'écran de la bande-annonce.

Comme dans la vidéo de Nixon (visible en début d’article), la reconstitution de moments historiques peut également bénéficier de la technologie des deepfakes. « J’aimerais tenter des reconstitutions d’évènements dont on n’a pas la trace visuelle, confie Charles-Henry Groult, du Monde.fr. Par exemple, un deepfake du discours de l’échec du débarquement en Normandie par Eisenhower, dont on a le texte, mais qui n’a jamais été prononcé. Comme démarche pédagogique, ça peut être très intéressant ».

Avec les deepfakes, c’est tout un pan de la narration visuelle et de l’information qui va être durablement bouleversé. Cette narration devra s’emparer de ces techniques innovantes pour s’améliorer, développer un propos, révéler une information, alerter sur une situation ou détecter les documents manipulés, les vidéos synthétiques et les voix artificielles. Les médias synthétiques semblent bien partis pour s’imposer dans les années qui viennent à tous les étages de la production de contenus audiovisuels, posant de nouvelles questions éthiques auxquelles les journalistes devront répondre.

Ne passez pas à côté de nos analyses

Pour ne rien rater de l’analyse des médias par nos experts,
abonnez-vous gratuitement aux alertes La Revue des médias.

Retrouvez-nous sur vos réseaux sociaux favoris

À lire également