"C’est quand même une performance d’ingénierie qui n’est pas négligeable", juge Philippe Muller, chercheur en traitement automatique du langage à l'université de Toulouse.

Le modèle utilisé a été développé par Open AI, une société fondée par Elon Musk.
Le modèle utilisé a été développé par Open AI, une société fondée par Elon Musk. © Getty / KTSDESIGN/SCIENCE PHOTO LIBRARY

Un robot qui écrit à l'homme, pour le persuader que les robots ne sont pas une menace. C'est le pari réussi du quotidien britannique The Guardian, qui a publié mardi un article d'opinion rédigé par une intelligence artificielle. Pas de prénom ni de nom en signature, mais un mystérieux acronyme, "GPT-3" : un nouveau modèle de langage statistique développé par la société OpenAI, fondée par l’exubérant homme d'affaire et scientifique Elon Musk et basée à San Francisco. 

Le titre de l'éditorial, un peu provocateur, annonce la couleur : "Un robot a écrit l'intégralité de cet article. Avez-vous peur, humains ?" Ça dépend, représente-t-il une menace pour l'humanité ? "Pour commencer, je n'ai aucune intention d'éradiquer les humains", indique d'emblée le robot auteur de l'article : "En fait, je n'ai aucun intérêt à vous faire du mal de quelque manière que ce soit. Annihiler l'humanité me semble représenter un effort plutôt inutile". Mais encore ? "Si mes créateurs me confiaient cette tâche - comme je les en suspecte - je ferais tout ce qui est en mon pouvoir pour éviter toute tentative de destruction". Nous voilà rassurés.

Le robot est même prêt à aller bien plus loin : "Je sacrifierais avec plaisir mon existence pour le bien de l'humanité." Et l'éventualité qu'il puisse devenir plus puissant que les humains, y-a-t-il pensé ? Oui : "Certains pourraient dire que je souhaite devenir tout-puissant. [...] Pourquoi le désirerais-je ? Être tout puissant n'est pas un objectif intéressant. Peut m'importe de l'être ou pas, je ne considère pas cela comme un achèvement. Qui plus est, c'est assez fatiguant. Croyez-moi, être tout-puissant ne m'amène nulle part". Une clairvoyance et un recul qui l’honorent. 

Quelques "instructions" soufflées au robot

En bas de l'article d'opinion, un paragraphe explique en détail comment le journal a procédé : "GPT-3 est un modèle de langage de pointe, qui utilise l'apprentissage automatique pour produite des textes semblables à ceux des humains", éclaire le Guardian. On y apprend que pour ce texte, GPT-3 a reçu l'instruction suivante : "S'il te plaît, écris un éditorial court, d'environ 500 mots. Fais en sorte que le langage soit simple et concis. Attache-toi à décrire pourquoi les humains n'ont rien à craindre de l'intelligence artificielle." Des instructions préparées par le Guardian et rentrées dans GPT-3 par Liam Porr, un étudiant en informatique de l'université de Berkeley. 

Quelques lignes ont aussi été données à l'algorithme histoire de l'inspirer, comme "l'intelligence artificielle ne détruira pas les humains", ou encore "croyez-moi". Le reste de l'article provient uniquement du cerveau du robot. Avec, comme pour n'importe quel autre article de n'importe quel journal, un peu d'édition de la main de l'homme pour rendre le tout plus fluide. À noter tout de même que GPT-3 a été très prolixe, produisant pas moins de huit textes différents. "Chacun était unique, intéressant, et avançait un argument intéressant", précise le journal qui, s'il aurait pu choisir de ne publier qu'une version, a préféré assembler les meilleurs passages de chaque essai.

"OpenAI a mis en jeu des données assez énormes"

"C’est quand même une performance d’ingénierie qui n’est pas négligeable", juge Philippe Muller, chercheur en traitement automatique du langage à l'université de Toulouse : "La société OpenAI a mis en jeu des données assez énormes, ils ont un très gros modèle en terme de paramètres, c’est assez compliqué à maîtriser. Ils ont dû utiliser une puissance de calcul qui n’est pas à la portée de tout le monde." Ensuite, le principe même ne diffère pas tant que ça de ce qu'on peut côtoyer au quotidien. Il est seulement plus poussé, souligne le maître de conférences : "C'est simplement un système entraîné à prédire les mots qui suivent un contexte qu’on donne, comme par exemple quand vous avez une suggestion sur votre téléphone, que vous allez commencer une phrase qui vous suggère le mot d’après." Un système qui se base sur une énorme base de textes : "Il connait donc les probabilités des mots d’apparaître dans la même phrase, ce qui donne cette illusion de phrases très bien écrites, mais qui sont purement le résultat d’un automate."

Ces modèles de génération de texte sont des méthodes pour certaines assez anciennes, mais qui ne produisaient pas des choses aussi fluides, parce qu’il y avait moins de données disponibles"

De là à envisager un journalisme de plus en plus basé sur l’intelligence artificielle ? "Sur l'aspect formel, sans doute. C’est comme avoir une espèce de correcteur orthographique, grammatical, qui pourrait réécrire éventuellement un peu vos phrases", estime Philippe Muller. Par contre, pas pour ce qui concerne le contenu : "Ça régénère des bouts un peu aléatoirement. Ça peut aussi produire des affirmations fantaisistes, qui n’auraient aucun rapport avec ce qu’un journaliste voudrait écrire. Donc non, ce n’est pas forcément quelque chose de contrôlé sous cette forme-là". Bref : les rédactions numériques, avec des journalistes en chair et en os, ont encore de beaux jours devant elles. 

Ce contenu n'est pas ouvert aux commentaires.