Retour ce matin sur cette intelligence artificielle, capable soi-disant de reconnaître sur une photo si une personne est homosexuelle.

Une démonstration de reconnaissance faciale lors du lancement du Galaxy Note 7 en Corée (Août 2016)
Une démonstration de reconnaissance faciale lors du lancement du Galaxy Note 7 en Corée (Août 2016) © Reuters / Kim Hong-Ji

Après les robots tueurs, cette information publiée en fin de semaine dernière a remis une pièce dans le débat "l'intelligence artificielle est-elle dangereuse?" Ces derniers jours, plusieurs chercheurs en intelligence artificielle ou sociologues spécialistes des questions de sexualité ont remis en cause cette publication.

Des critiques sur le fond, l’intérêt de cette étude, bien sûr, mais aussi sur la méthodologie. Car la recherche a beau faire des avancées extraordinaires en matière d'intelligence artificielle, il faut bien qu'un humain, en l'occurrence ici deux chercheurs de l'université de Stanford, lui ait dit quoi faire et comment apprendre à le faire.

C’est dramatique de se cacher derrière la technologie pour réactiver de vieux à priori, déplore Jean Gabriel Ganascia

Le spécialiste de l'intelligence artificielle et Président du comité d'éthique du CNRS ajoute : "Il faut justement lutter contre cette idée qu'une machine, puisqu'elle opère de façon systématique est neutre. Les machines sont fabriquées par les hommes. Même si les apprentissages sont automatiques, il y a toujours des hommes derrière. Il y a un implicite dans la programmation des machines, qui tient à la fois aux descripteurs que l'on va prendre en considération et aux exemples que l'on va donner aux machines". FaceNet, par exemple, le logiciel de reconnaissance faciale de Google a eu besoin de 200 millions de photos pour apprendre à reconnaître les visages et obtenir un taux de réussite de 99,63 %. Or, cette intelligence artificielle capable de repérer les homosexuels à leur photo de profils n'a été alimentée que par 35 000 images issues de sites de rencontre américain.

Les dérives pourraient se multiplier

Comme pour un sondage, où est précisé sur quel échantillon de tant de personnes interrogées par téléphone ou sur internet et à telle date, il faudrait, à l'avenir, toujours se demander comment a été élaborée une intelligence artificielle. Pas question pour autant de mettre le nez dans l'algorithme, la plupart d'entre nous n'y comprendrait rien. Mais de plus en plus de chercheurs demandent qu'une réflexion soit menée pour obliger les créateurs de ces programmes à préciser les critères, le nombre ou encore le type de données utilisées. L'intelligence artificielle a une capacité de calcul, de croisement d’informations extraordinaire mais à condition de lui donner les bonnes données sinon cela devient vite n'importe quoi et les dérives comme cette publication pourraient se multiplier et cela dans divers secteurs.

Par exemple, une intelligence artificielle pourrait demain être chargée de, si ce n'est embaucher au moins présélectionner des candidats à un poste dans une entreprise.Si les données sur lesquelles elle s’appuie sont celles des salariés qui composent déjà l'entreprise, elle va se contenter de rechercher exactement les mêmes profils. Adieu la diversité! Comme beaucoup d'outils, l'IA n'est pas en soi dangereuse c'est la façon dont les hommes la manipulent qui peut l'être.

Mots-clés :
Nous contacter
Ce contenu n'est pas ouvert aux commentaires.