Un programme informatique qui déshabille les femmes a attiré l’attention du gendarme italien de la vie privée. De quoi s’agit-il ?

Quand un programme informatique déshabille les femmes
Quand un programme informatique déshabille les femmes © Getty / Stanislaw Pytel

C’est un outil très simple d’utilisation. Il suffit de se rendre sur la messagerie Telegram, de se connecter sur le bon canal et d’envoyer la photo d’une femme. Au bout de quelques secondes, vous recevez la même photo. A un détail près : les habits ont disparu. Cette manipulation, elle est rendue possible par la technologie du deepfake.

Ca vous dit quelque chose ? C’est normal. L’an dernier, un logiciel de ce type avait déjà fait polémique avant de disparaître de la toile. Il semblerait donc qu’il soit de retour, mais cette fois sous une autre forme, et surtout bien plus simple d’utilisation.

Au moins 100 000 photos auraient ainsi été manipulées et rendues publiques sur Telegram, selon l’entreprise Sensity, qui a révélé l’affaire. Ces images ont parfois été piochées sur les réseaux sociaux, elles montrent des stars comme des inconnues, qui n’ont aucune idée de ce qui se passe. Heureusement, depuis ces révélations, la plupart des images ont disparu de Telegram.

Bon, pas de panique, concrètement, l’outil est loin de fonctionner parfaitement. Déjà, pour que ça marche, il faut envoyer des photos montrant des personnes en petite tenue, sinon l’algorithme fait n’importe quoi - j’ai essayé sur moi, avec un gros pull et un vieux jean (ben oui, c’est l’automne)... et je me suis retrouvée avec... la poitrine sur les épaules.

Et même quand le logiciel parvient à un résultat plus réaliste, il suffit de regarder de plus près pour déceler la supercherie.

Le souci, c’est qu’au premier regard, sur des images de mauvaise définition, potentiellement, on peut se laisser prendre. Et là, l’existence de ces fausses images de femmes nues, elles peuvent ouvrir la voie à du chantage, du harcèlement, de l’extorsion ou de la vengeance pornographique. Sans compter qu’un certain nombre des images publiées mettaient visiblement en scène des mineures.

C’est pour ça que le gendarme italien de la vie privée (l’équivalent de notre CNIL), a ouvert une enquête il y a quelques jours, visant l’application Telegram.

Ce qu’il faut noter c’est que quand cette technologie du deepfake est apparue, en 2017, c’était pour modifier des vidéos pornographiques, afin de remplacer le visage des actrices par celui d’autres femmes. Et à cette époque, les inquiétudes se sont immédiatement portées sur les risques politiques de cette technologie : si un logiciel était capable de remplacer un visage dans une vidéo pornographique, alors il pouvait le faire dans une vidéo politique, et faire dire n’importe quoi à Donald Trump, Vladimir Poutine ou Emmanuel Macron.

Or, trois ans plus tard, alors qu’on est à une semaine de l’élection présidentielle américaine : rien de tout ça. Les deepfakes, jusqu’ici, n’ont pas été exploités pour de grandes campagnes de manipulation politique. En revanche, ils n’ont jamais cessé d’être utilisés contre les femmes.

L'équipe
Contact
Ce contenu n'est pas ouvert aux commentaires.