Sous une vidéo où des hommes noirs apparaissent, l'algorithme de Facebook a demandé aux internautes s'ils souhaitaient "voir plus de vidéos sur les primates ?". Ce n'est pas la première fois que la plateforme est épinglée pour de tels faits de racisme, tout comme Google et Twitter.

Image d'illustration
Image d'illustration © AFP / CHRIS DELMAS

Le New York Times a révélé vendredi que l'algorithme de Facebook avait confondu le visage d'hommes noirs avec des primates. Tout est parti d'une vidéo du journal britannique le Daily Mail, intitulée "un homme blanc appelle les flics contre des hommes noirs à la marina", publiée en juin 2020. Sur celle-ci, on observe en effet des hommes noirs ayant un différent avec un homme blanc, puis un autre homme noir victime de violences policières. Il n'y a pas de singe. Pourtant, sous la vidéo, l'algorithme a proposé à des utilisateurs de "voir plus de vidéos sur les primates", avec les options "Oui" ou "Rejeter". 

C'est Darci Groves, une ancienne designer de Facebook, qui a la première signalé l'erreur sur Twitter, capture d'écran de l'un de ses amis à l'appui. 

Pour afficher ce contenu Twitter, vous devez accepter les cookies Réseaux Sociaux.

Ces cookies permettent de partager ou réagir directement sur les réseaux sociaux auxquels vous êtes connectés ou d'intégrer du contenu initialement posté sur ces réseaux sociaux. Ils permettent aussi aux réseaux sociaux d'utiliser vos visites sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.
Gérer mes choix

"C'est scandaleux", a-t-elle écrit, appelant ses ex-collègues de Facebook à faire remonter l'affaire.

Réaction immédiate de Facebook

"C'est clairement une erreur inacceptable", a réagi une porte-parole de Facebook, sollicitée par l'AFP. "Nous présentons nos excuses à quiconque a vu ces recommandations insultantes."  

Le groupe californien a désactivé l'outil de recommandation sur ce sujet "dès que nous nous sommes aperçus de ce qui se passait afin d'enquêter sur les causes du problème et empêcher que cela ne se reproduise", a-t-elle précisé.  

"Même si nous avons amélioré nos systèmes d'intelligence artificielle, nous savons qu'ils ne sont pas parfaits et que nous avons des progrès à faire"

L'affaire souligne les limites des technologies d'intelligence artificielle, que Facebook utilise en permanence pour construire un fil personnalisé à chacun de ses près de 3 milliards d'utilisateurs mensuels.  

Des erreurs récurrentes

La plateforme, comme ses concurrentes, est régulièrement accusée de ne pas lutter suffisamment contre le racisme et d'autres formes de haine et de discriminations. Comme le révèle Slate, ce n'est pas la première fois que Facebook commet ce genre d'erreur. 

L'an dernier, dans la traduction automatique d'un texte birman en anglais, le président chinois Xi Jinping était qualifié de «Mr. S***hole» («M. Tr** du C*l»). Un problème de traduction automatique, qui n'a pas affecté Google.

En revanche, en 2015, déjà selon le NY Times, Google Images avait catégorisé des personnes noires en tant que "gorilles". L'entreprise avait présenté ses excuses et travaillé sur son algorithme, avant de simplement censurer le terme «gorille», ainsi que «chimpanzé» et «singe» afin que ce genre de faute ne se reproduise plus.

De graves conséquences

Ces entreprises sont particulièrement surveillées sur ce genre d'erreurs, car des études ont montré que la technologie de reconnaissance faciale qu'elles utilisent était biaisée contre les personnes de couleur. Elle a plus de difficulté à les identifier, ce qui a conduit à des incidents où des hommes noirs ont été discriminés ou arrêtés en raison d'une erreur informatique.

Pour afficher ce contenu Twitter, vous devez accepter les cookies Réseaux Sociaux.

Ces cookies permettent de partager ou réagir directement sur les réseaux sociaux auxquels vous êtes connectés ou d'intégrer du contenu initialement posté sur ces réseaux sociaux. Ils permettent aussi aux réseaux sociaux d'utiliser vos visites sur nos sites et applications à des fins de personnalisation et de ciblage publicitaire.
Gérer mes choix