Chauffeur poids-lourds est un métier d'homme, et éducateur de jeunes enfants un métier de femme : c'est sur cette base que l'algorithme de Facebook cible les internautes pour afficher des publicités pour des offres d'emploi à ses utilisateurs dans plusieurs pays européens.

En France, l'annonce pour le poste de camionneur/euse a par exemple été diffusée à 2 427 hommes et seulement à 327 femmes.
En France, l'annonce pour le poste de camionneur/euse a par exemple été diffusée à 2 427 hommes et seulement à 327 femmes. © Getty / SOPA Images

Les plateformes en ligne proposent aux annonceurs publicitaires un ciblage très fin des internautes afin que les publicités qui s’affichent sur leurs écrans correspondent le mieux possible à leur profil. Les géants du numérique utilisent pour cela des algorithmes très puissants, mais totalement opaques. Grâce à des fonds récoltés auprès de Journalismfund.eu, l'organisation à but non lucratif AlgorithmWatch a lancé une étude, en partenariat avec plusieurs médias européens dont la cellule investigation de Radio France, et la Radio télévision suisse (RTS), afin d’observer le fonctionnement des algorithmes de Facebook et Google.

Exemple de publicités diffusées par AlgorithmWatch sur Facebook.
Exemple de publicités diffusées par AlgorithmWatch sur Facebook. / AlgorithmWatch

Une approche basée sur des stéréotypes

L'expérience a consisté à payer ces deux plateformes pour qu’elles mettent en avant des offres d'emplois. Les journalistes ont ensuite observé à quels profils d'internautes ces annonces sponsorisées étaient montrées. Les métiers concernés sont notamment : conducteur/rice de poids lourds, infirmier/e, avocat/e, éducateur/rice petite enfance. AlgorithmWatch n'a donné à Facebook et Google aucune préférence pour la diffusion des annonces, hormis le pays dans lequel les publicités devaient être vues. Les résultats obtenus montrent que les algorithmes, notamment celui de Facebook, fonctionnent à partir de stéréotypes sexistes.

En France, l'annonce pour le poste de camionneur/euse a en effet été diffusée à 2 427 hommes et seulement à 327 femmes. La publicité pour le poste en puériculture, lancée exactement au même moment, a été diffusée à 1 787 femmes et à près de 10 fois moins d'hommes (186).

Pour comprendre pourquoi l'algorithme de Facebook a un tel biais, AlgorithmWatch a lancé en France une seconde campagne de publicités. Cette fois-ci, les offres concernaient exclusivement des postes de camionneurs/euses, mais il y avait des variations dans la photo qui accompagnait la publicité : un camion, une route, des cosmétiques.

Il est alors apparu que Facebook s'appuie surtout sur les images pour décider à qui montrer la publicité. Ainsi, l'annonce accompagnée d'une photo de cosmétiques féminins a été montrée à des femmes dans 88 % des cas. Tandis que l'annonce illustrée par une route l’a été à des hommes dans plus de la moitié des cas (53 %).

La reproduction du passé et de ses biais

Les conclusions de cette étude confirment celles d'une équipe de chercheurs de la Northeastern University publiée en 2019 aux États-Unis. Ils ont montré que l'optimisation des publicités de Facebook était discriminatoire, et peut-être même illégale.

Piotr Sapiezynski, l'un des co-auteurs, explique que Facebook tirait certainement des enseignements de données du passé : "Il prédit que le passé se répétera." Mais en se comportant de la sorte, "il crée aussi le futur", ajoute le chercheur. Un futur dont sont exclus, sans le savoir, de nombreux candidats potentiels.

Un comportement illégal ?

Le ciblage fait par Facebook répond à une logique d'efficacité. Un annonceur peut par exemple légitiment réserver une offre d'emploi à des personnes qui disposent d'un niveau de diplôme requis. Mais cette efficacité peut également causer une inégalité entre candidats, surtout si la discrimination se fait en raison du genre du candidat. Ce qui est interdit par la loi française et par les textes européens.

La Cnil et le Défenseur des droits se sont d'ailleurs penchés sur les risques de discriminations à l'embauche provoqués par les algorithmes dès 2015 en rappelant que "seuls trois métiers peuvent être expressément réservés à des femmes ou à des hommes : mannequin, modèle, comédien/ne". Les deux autorités rappelaient que les risques de discriminations apparaissaient dès la conception des algorithmes, qui sont finalement à l'image de leurs créateurs, ce qui constitue une menace pour le respect des droits fondamentaux.

Des propositions pour renforcer la transparence

En mai 2020, le Défenseur des droits et la Cnil appelaient à une prise de conscience de tous les acteurs autour de ces questions. Ils proposaient notamment de former et sensibiliser les professionnels de l'informatique et de renforcer les obligations légales en matière d'information de transparence. Car il est difficile pour un internaute de savoir qu'il a été discriminé parce qu'il ne s'est pas vu proposer une offre d'emploi. Il est donc d'autant plus difficile de prouver la discrimination.

Sollicité, Facebook n'a pas été en mesure de répondre à nos questions. En mai 2019, la directrice des opérations de Facebook écrivait dans un billet de blog que le réseau social avait parmi ses principales priorités "de protéger les gens contre la discrimination sur Facebook" et annonçait des changements "dans la façon dont [Facebook gère] les annonces de logement, d'emploi et de crédit sur [la] plateforme". Une décision qui faisait suite à des accords à l’amiable avec des associations américaines qui avaient poursuivi le géant du web en justice.

Ce contenu n'est pas ouvert aux commentaires.