L’intelligence artificielle est souvent présentée comme un danger pour certains métiers, notamment celui de journaliste. Ce danger est-il réel et d’où viendra-t-il ? Car l’intelligence artificielle c’est bien plus que ChatGPT.
/image%2F1484077%2F20231220%2Fob_380c6c_01.jpg)
L'IA est-elle un danger pour le journalisme ? Certains affirment que oui, d’autres disent que non ! Que cela pourrait même être une opportunité pour le journalisme . Une chose est certaine pour moi, ce n’est pas de ChatGPT que viendra le principal danger pour les journalistes ! Début octobre a circulé une publication sur Facebook pour vanter les mérites d’un jeu qui prétend permettre de gagner de l’argent en s’amusant… bien entendu c’est une arnaque destinée à appâter les partisans de l’argent facile ! Cette publication reposait sur un extrait du JT de la RTBF où l’on voyait François de Brigode et Laurick Ayoub, deux journalistes de la RTBF, présenter un reportage du JT consacré à ce jeu… C’était simplement un deep-fake ! La RTBF demander à Facebook de faire cesser la publicité, ce qui a été fait, et une plainte a été ou va être déposée au pénal… Mais voilà, il est tout à fait possible de créer une fausse séquence de JT avec l’image et la voix de vrais journalistes pour diffuser de la fausse information. Le danger est réel !
Le deep-fake ou hypertrucage, c’est une technique de synthèse multimédia qui repose sur l'intelligence artificielle. Elle permet de superposer des fichiers vidéo ou audio existants sur d'autres fichiers vidéo (par exemple changer le visage d'une personne sur une vidéo) ou d’autres fichiers audio (par exemple reproduire la voix d'une personne pour lui faire dire des choses inventées). Le mix des deux est une bombe qui peut faire beaucoup de dégâts !
Le deep-fake, c’est une technique qui est utilisée dans les arts, au cinéma ou à la télévision… l’exemple le plus connu chez nous est probablement l’émission humoristique – pas drôle mais c’est un avis personnel subjectif – de TF1, ‘’C’est Canteloup’’ qui crée de fausses infos en glissant l’imitateur dans la peau de célébrités françaises. Une version digitale des Guignols de l’Info en moins bien finalisée au niveau des textes et du contenu mais très réaliste au niveau de la forme !
Deep-fakes, quelques exemples !
En 2021, on dénombrait quelque 145.000 deep fakes en ligne soit 18 fois plus qu’en 2018… Nul doute qu’en 2023, ce chiffre a encore grandi. Selon le World Economic Forum, le nombre de vidéos frauduleuses en ligne augmente à un rythme annuel de 900%. En 2022, la chaîne d'information Ukraine 24 diffuse sur son site Internet une vidéo prétendument tournée par le président ukrainien Zelensky, dans laquelle il exhorte la ses militaires et la population à rendre les armes. La vidéo était un deepfake, partagé au même moment sur Facebook et Telegram, probablement à l'initiative d'un compte pro-russe dont l’objectif était de déstabiliser les troupes ukrainiennes. Mais on perçoit tout le danger : une chaine officielle s’est laissé berner par un deep-fake mettant en scène le président ukrainien appelant ses troupes à se rendre…
Autre exemple : en février dernier, une séquence de JT vénézuélienne est diffusée sur les réseaux sociaux. Dans cette séquence, deux journalistes démontrent que l’économie du Venezuela se porte bien, qu’elle s’est relevée après des années de crise… Cette séquence vidéo est crée de toutes pièces, les deux journalistes n’existent pas, les infos diffusées sont fausses. L’économie du pays est moribonde. Mais, de nouveau, ce deep-fake a berné une frange énorme de la population vénézuélienne…
En 2018, deux informaticiens de l’Université de Washington, qui voulaient montrer le danger réel des deep fakes, ont créé un deep fake de Barack Obama dans lequel il disait : ‘’Le président Bush est un connard total et absolu !’’… Des propos qu’Obama n’a évidemment jamais tenus (même s’il les a probablement pensés très fort !). Cette vidéo fausse avait fait un buzz sur les réseaux sociaux car de nombreuses personnes l’ont prise pour vraie tant elle était réaliste.
Dans un autre domaine, le deep-faking a été utilisé pour créer de nombreuses fausses sex tapes avec des célébrités à des fins de chantage. Elles existent aussi pour des citoyens lambda que l’on veut harceler ou humilier en les plaçant dans des fausse vidéos pornographiques… le champ des possible est vaste et cette amplitude est une source réelle de danger pour la véracité de l’information au sens large du terme !
Attention, danger !
Dès lors que l'on a à disposition suffisamment d’images et de discours existants, que des logiciels en open source, faciles à manier et de plus en plus efficaces, permettent mettre n’importe quels mots dans toutes les bouches et d’en faire des images réalistes, il y a danger ! Le deep-fake c’est peut-être le début de la fin de la crédibilité de l’image. Nous sommes sur le seuil de l’interrogation permanente : cette vidéo est-elle réelle ou fausse ? Dès lors, il sera vite légitime de se demander si les contenus vidéos diffusés par les médias sont la vérité ? Non pas que je pense que les médias mentiront volontairement mais bien parce que, comme la chaine Ukraine 24, ils se seront laissés bernés. Le fact checking va devoir prendre de plus en plus de place dans les rédactions. La vérification de la crédibilité des infos, de leur source, va devoir être renforcée car tout pourra être placé sous la lorgnette de la suspicion… pas seulement les écrits mais aussi les audios et les vidéos !