Christophe de Vallambras est chef du MediaLab de France Télévisions. Son rôle : surveiller les innovations technologiques, proposer des idées et des prototypes pour les journalistes. Dans ce cadre, début 2023, il échange avec une société qui le met en garde. La technique utilisée jusqu’alors pour anonymiser les voix des témoins — les rendre plus graves ou plus aiguës — est devenue facile à contourner. Des propositions sont explorées. L’une d’entre elles est choisie. À peine ce sujet réglé, un autre apparaît : « D’accord pour la voix, mais les visages ? »
Cette question reçue par mail le 31 janvier 2023, anodine en apparence, provoque de nombreuses réflexions et tests au sein de France Télévisions. Christophe de Vallambras doit désormais déterminer si les méthodes d’anonymisation des visages sont encore assez robustes. Les implications déontologiques sont importantes : il en va de la responsabilité d’un média de protéger ses sources anonymisées.
Portrait-robot
Les tests menés à France Télévisions révèlent qu'à partir d'un visage flouté, il est possible d’obtenir un portrait-robot. Pas un défloutage à proprement parler : les résultats ne sont pas des visages clairs, mais des suggestions de traits. Les outils utilisés sont d’abord destinés à de la retouche d’image — gratuits ou non, modifiables par les communautés de développeurs ou pas. Et surtout, ils embarquent de l’intelligence artificielle. Pas de temps à perdre. « Dès le 10 février, j’envoie une première note, explique Christophe de Vallambras. J’y écris que le floutage tel qu’il existe aujourd’hui risque d’être compromis. »
Mais le chef du MediaLab recherche des certitudes. Il contacte Titus Zaharia, chercheur et professeur à Télécom SudParis. Spécialisé dans la reconnaissance d’image par ordinateur, l’intelligence artificielle et le deep learning — procédé d'apprentissage automatique pour des machines — il confirme à Christophe de Vallambras l'urgence du problème : dans quelques années, peut-être quelques mois, les floutages de France Télévisions risquent de devenir obsolètes.
Une « charte de l’anonymat »
Pour limiter au maximum les risques futurs de désanonymisation, Christophe de Vallambras diffuse une nouvelle note le 8 mars 2023. Très vite, on jette les premières bases pour une « charte de l’anonymat » en interne, un document offrant un cadre réglementaire. Celui-ci voit le jour en juin 2023. La réflexion sur les techniques d'anonymisation est globale, on y trouve plusieurs recommandations et interdits.
Sur la voix, tout d’abord. Interdiction de simplement modifier sa hauteur avec un logiciel. Trop facile à contourner. Le journaliste doit à la place faire lire le témoignage à un tiers, ou recourir à une voix de synthèse. Pour l’image, le floutage doit désormais être exceptionnel. Le journaliste doit filmer les personnes de dos, en faisant attention aux cheveux, sans cadrer le visage — voire carrément tourner avec quelqu’un d’autre. Et éviter, bien entendu, de capter des éléments qui permettraient de localiser la personne qui témoigne.
Le document évoque aussi les cas où le témoin requiert l’anonymat après tournage. Dans ce cas-là, le flou ne peut suffire. Il faut y adjoindre, en post-production, un cache noir opaque couvrant le visage entier — il doit y avoir destruction de données sur la zone concernée — ainsi qu’un floutage du corps. Entre-temps, les différents partenaires de France Télévisions, dont l'INA, sont mis au courant des avancées, risques et précautions à prendre.
Une trentaine de sujets dépubliés
Noémie Barkati et Pascal Doucet-Bon, respectivement stagiaire et directeur délégué de l'information de France Télévisions, s’attèlent fin 2023 à une nouvelle tâche : analyser quelque 1 100 sujets comportant des personnes floutées, provenant des journaux télévisés nationaux de France 2 et France 3. Il faut déterminer si, oui ou non, ces segments peuvent rester en ligne. Plusieurs critères sont pris en compte, reprenant les grands axes de la charte : les personnes peuvent-elles être facilement localisées ? Y a-t-il à l’écran des signes distinctifs permettant de les reconnaître ? Et surtout, la sensibilité du sujet requiert-elle une anonymisation robuste ? La réflexion n’est pas la même s’il s’agit d’un simple micro-trottoir d’actualité ou d’un témoignage de riverain à propos d’un règlement de compte.
La revue terminée, une trentaine de sujets — et les intégrales des journaux dont ils proviennent — sont finalement dépubliés des sites de France Télévisions, après discussion avec les auteurs des sujets et prise de contact auprès des personnes filmées. Les risques encourus par ces dernières (violence, perte d’emploi, attaque en justice…) sont jugés trop élevés. Selon Pascal Doucet-Bon, aucun des témoins joints dans ce cadre n’a été affecté négativement après tournage et diffusion. « Cela signifie peut-être que nous avons traité la question à temps, en tout cas sur ce corpus », espère-t-il.
« En Iran, on vous tombe dessus si vous parlez à un média étranger »
Les acteurs qui inquiètent le plus France Télévisions ? Des mis en cause. Des membres du crime organisé. Ou des États autoritaires. Dans le contexte actuel, ce dernier genre d’acteur inquiète particulièrement les journalistes, réalisatrices et réalisateurs de documentaires. Une problématique bien intégrée par Solène Chalvon-Fioriti, auteure de Nous, jeunesse(s) d’Iran, diffusé le 21 avril 2024 sur France 5.
Ce documentaire suit le parcours de plusieurs Iraniennes, de classes sociales différentes, aux convictions politiques parfois très opposées, à la suite des révoltes de 2022. Elles se trouvent en France, au Kurdistan, et bien sûr en Iran. Mais filmer sur place représentait un risque. « En Iran, on vous tombe dessus si vous parlez à un média étranger », explique la journaliste. Témoigner de sa vie, de ses opinions, de ses combats, l’est d’autant plus. Même si les positions exprimées s’alignent sur celles du régime.
Anonymiser les témoins était donc une évidence. Mais pas n’importe comment. « En Iran, si vous avez été fiché, pris en photo, les autorités ont les techniques et outils de reconnaissance faciale pour vous reconnaître, raconte Solène Chalvon-Fioriti. Le flou léger ne peut pas suffire. » Des hackers iraniens contactés par ses soins lui confirment le danger.
Pourquoi, dans ce cas, ne pas utiliser un flou plus lourd, opacifiant totalement les traits des personnes, transformant leur visage en une vague tache de couleur ? La réalisatrice n’en voulait pas. « Autant ne pas faire de documentaire, dit-elle, on ne peut pas tenir les spectateurs comme ça. » Les techniques old school (filmer de dos, visage hors-cadre…) bien connues de la profession ? Difficile d'y recourir, étant donné les conditions de tournage. Solène Chalvon-Fioriti n’a pas pu se rendre sur place, faute de visa — les témoins se filment elles-mêmes, souvent face à la caméra.
Nouveau visage
L’idée d’utiliser des visages générés via des outils avec de l’IA lui vient d’un film : Bienvenue en Tchétchénie, documentaire sorti en 2020, dans lequel de jeunes réfugiés tchétchènes LGBT, aidés dans leur fuite du pays par des activistes russes, ont leur visage ainsi remplacé. Dans le film de Solène Chalvon-Fioriti, Sarah, vingt ans, fil rouge du récit, parle les yeux dans l’objectif de la caméra. Ses traits sont peu naturels. Comme figés. Parfois flous. Générés par une IA, ce ne sont pas les siens. Il ne s’agit pas d’un deep fake (contenu dans lequel des fichiers vidéo ou audio existants sont superposés à d'autres fichiers, souvent dans des buts de manipulation). Le visage de Sarah dans le documentaire, pure création, n’appartient à personne.
« L’IA permet d’envisager l’émotion qu’on nous partage, mais sans révéler le témoin. Le visage, c’est souvent la part d’humanité qui reste dans les zones du monde où il y a des conflits ou de la répression », analyse la réalisatrice. Dans le cadre de Nous, jeunesse(s) d’Iran, donner un visage à ces femmes tout en les protégeant donne une puissance symbolique forte à ces témoignages. Cependant, la réalisatrice ne souhaite pas utiliser de nouveau cette technique, ce choix résultant davantage de contraintes. On ne saura d’ailleurs pas quels outils et méthodes ont été utilisés pour procéder à la modification des visages. Ni qui en est à l’origine : Solène Chalvon-Fioriti souhaite protéger l’auteur d’acteurs malveillants.
Une utilisation précise
Choisie courant novembre, durant le montage du documentaire, la méthode rallonge la production et décale la diffusion, prévue initialement le 8 mars — journée internationale des droits des femmes. En interne, un arbitrage a lieu. Diffuser des deep fakes ne serait pas envisageable, « mais dans le même temps le groupe doit impérativement protéger ses sources, avec un moyen d’anonymisation inattaquable », précise Pascal Doucet-Bon. Par ailleurs, la méthode n’a pas vocation à être systématiquement utilisée dans le cadre des productions de France Télévisions, nous explique-t-on du côté de la direction des documentaires.
Ce cas pratique montre à quel point l’intelligence artificielle, comme de nombreuses innovations techniques, est un « pharmakon », au sens où l’abordait le philosophe Bernard Stiegler. Un poison potentiel. Mais aussi un remède. Et un sujet de bac philo en puissance.