IBM a annoncé lundi mettre fin au développement de ses technologies de reconnaissance faciale. Dans une lettre au Congrès américain, le PDG de l'entreprise affirme que cette technologie pose trop de problèmes pour être utilisée par les forces de l'ordre. La mort de George Floyd a joué un rôle dans cette décision.

Les technologies de reconnaissance faciale sont de plus en plus nombreuses, mais elles ne sont pas toutes fiables
Les technologies de reconnaissance faciale sont de plus en plus nombreuses, mais elles ne sont pas toutes fiables © Getty / VCG / Contributeur

C'est une décision ferme de la part d'un vétéran de l'informatique comme IBM : la firme américaine a annoncé, par l'intermédiaire de son PDG Arvind Krishna, qu'elle ne vendrait plus - ni ne développerait - dans le futur proche des systèmes de reconnaissance faciale. Une annonce faite sur fond de manifestations aux États-Unis contre le racisme et les violences policières, et qui a pris la forme d'une lettre adressée directement au Congrès américain :

"IBM s'oppose fermement, et elle ne fermera pas les yeux, à l'utilisation de technologies, incluant la reconnaissance faciale, pour la surveillance de masse, le contrôle au faciès, les violations des droits et des libertés humaines (...)".

L'entreprise appelle même à l'ouverture "d'un dialogue national sur comment la technologie de reconnaissance faciale peut être utilisée par les forces de l'ordre - et si elle doit l'être". Selon son PDG, qui déclare au Congrès vouloir travailler avec ses membres "pour la justice et l'équité raciale", "les morts tragiques et horribles de George Floyd, Ahmaud Arbery, Breonna Taylor, et bien d'autres, nous rappellent que le combat contre le racisme est plus urgent que jamais".

Des systèmes pas fiables à 100%

IBM regrette ainsi le fait que les forces de l'ordre utilisent, lorsqu'elles se servent de ces technologies, des outils qui ne sont pas fiables à 100%. De nombreuses études ont en effet montré que la reconnaissance faciale présentait des biais liés à l'âge, au genre et à la couleur du visage présenté

Ainsi, en 2018, l'étude "Gender Shades" avait montré que l'acuité de la reconnaissance faciale variait de presque 30% entre un homme blanc et une femme noire : dans les systèmes créés par IBM, un homme blanc était reconnu à 99,7%, une femme noire à seulement 65,3%. L'analyse des erreurs d'un autre système, celui de Microsoft, montrait que 93,6% des erreurs de reconnaissance faciale concernaient des personnes non-blanches. En 2019, c'est une étude fédérale, menée par l'Institut national des standards et des technologies américain (NIST), qui aboutissait au même constat : les membres de certains groupes pouvaient donner lieu à des erreurs d'identification 100 fois plus souvent que d'autres. 

Responsabilité partagée

L'an dernier, IBM avait tenté de pallier ce problème en créant une très vaste base de données prenant en charge la diversité des visages, à partir d'un million de visages trouvés dans une banque d'images en accès libre, celle du site Flickr. Mais là encore, ça n'a pas suffi : pour IBM, "les vendeurs et les utilisateurs des systèmes d'intelligence artificielle ont une responsabilité partagée pour s'assurer que l'IA est testée pour identifier des biais, et que ces tests font l'objet d'audits et de rapports". 

Alors que d'autres entreprises, et notamment Amazon, continuent à vendre des services de reconnaissance faciale imparfaits, le patron d'IBM appelle notamment à ce que les policiers portent plus de caméras-piéton, mais que celles-ci n'utilisent pas de reconnaissance faciale. Selon Arvind Krishna :

"Nous devons investir dans des technologies qui aident à atténuer la fracture numérique, pas des technologies qui créent un système de surveillance qui exacerbe les abus de la police et le racisme structurel".

Ce contenu n'est pas ouvert aux commentaires.