Vous pensiez qu’on avait touché le fond avec les "fake news" et autres fausses informations ? Eh bien, il se pourrait qu’elles ne soient qu’une étape de notre plongée dans l’ère de la post-vérité.

Les deep fake annoncent-ils une nouvelle ère du journalisme ? (et de vérité)
Les deep fake annoncent-ils une nouvelle ère du journalisme ? (et de vérité) © Getty / -Antonio-

Depuis quelques mois, on parle de plus en plus de ce qu’on appelle les "deep fakes". "Fake", c’est le "faux", le "trucage" et "deep" pour "deep learning", une de modalités de l’intelligence artificielle. 

De quoi s’agit-il ? 

Grâce aux progrès de l’intelligence artificielle - et plus particulièrement des réseaux de neurones - des programmes sont aujourd’hui capables d’utiliser des images existantes pour générer d’autres images. Ça signifie que vous pouvez animer un visage, lui donner des expressions, l’insérer dans une autre image. La pornographie s’en est vite saisie pour mettre le visage de stars sur des corps d’actrices pornographiques. 

En version plus innocemment potache, ça donne le visage inquiétant d’Elon Musk, le patron de Tesla, sur un corps de bébé (très flippant) :

Ou ça permet de faire jouer à Nicolas Cage des rôles qu’il n’a jamais tenus :

Dans tous les cas, c’est assez saisissant. 

Mais il y a une dimension supplémentaire : d’autres logiciels permettent de trafiquer les voix. Par exemple, vous pouvez parler avec la voix de Barack Obama, c’est rigolo. 

Sauf que si vous combinez les deux techniques - que vous trafiquez à la fois le visage et la voix -, ça devient plus problématique : vous arrivez à produire une vidéo à peu près crédible dans laquelle Barack Obama tient des propos qu’il n’a jamais tenus. 

A partir du moment où les algorithmes ont à leur disposition suffisamment d’images et de discours existants, des logiciels des plus faciles à manier et de plus en plus efficaces permettent de faire dire n’importe quoi à n’importe qui. C’est assez abyssal. 

Jusqu’ici, la vidéo faisait malgré tout office de preuve. Avec des outils comme ceux-là, ça risque de ne plus être le cas. On risque de voir apparaître plein de fausses déclarations, qui paraîtront  très crédibles. C’est un problème.

Mais, autre conséquence possible, quelqu’un qui aura été filmé en train de dire ou faire quelque chose de répréhensible ou de gênant pourra toujours, en l’absence d’autre source, crier au “deepfake”.  

Peut-être qu’on s’inquiète pour rien ?

Peut-être que les "deep fakes" resteront à jamais un gadget à usage plus ou moins de bon goût mais sans grande conséquence. C’est tout à fait possible. Le monde des technologies nous a habitués à se tromper d’inquiétude. Mais si elles se développent et sont utilisées à grande échelle pour créer de fausses déclarations d’hommes politiques, par exemple, on entrerait dans ce qu’un expert a désigné comme un monde de la “fake news sous stéroïde”. Parce que, aux dires des chercheurs, il n’est pas facile de déterminer techniquement si une image a été trafiquée par ce type de programmes (il faut créer des logiciels qui puissent détecter des défauts dans les mouvements des cils par exemple). Ce serait une guerre de programme informatique contre programme informatique, un fact checking technique. 

Mais il pourrait y avoir une autre conséquence, d’ordre quasi philosophique : toute image circulant dans les réseaux deviendrait par essence suspecte, l’image numérique basculerait dans le monde du faux, de la fabrication, on n’y croirait plus du tout. 

Elle tomberait dans un autre registre, celui de la fiction, on regarderait les images qui circulent sur Internet comme on regarde des films de fiction. Le "deep fake" aurait tué l’idée même qu’il y ait une vérité dans l’image numérique. On y chercherait autre chose. Ce serait étrange, ça inaugurerait une nouvelle ère du journalisme. Mais pas sûr que ce soit pire qu’aujourd’hui. 

L'équipe
Ce contenu n'est pas ouvert aux commentaires.