Alors que vient de s’achever à Paris une conférence mondiale sur l’intelligence artificielle, la CNIL (la Commission nationale de l'informatique et des libertés) stoppe deux projets d’expérimentation en matière de reconnaissance faciale. À tort ou à raison ?

Reconnaissance faciale
Reconnaissance faciale © Getty / John M Lund Photography Inc

Voilà du beau grain à moudre pour nos candidats aux municipales, et bien au-delà. Faudra-t-il un jour s’arracher les yeux comme le héros de Minority Report pour échapper à un monde de surveillance généralisée ? Heureusement tout le monde n’est pas Tom Cruise. Malheureusement Philip. K. Dick avait encore vu juste.

De quoi parle-t-on concrètement ?

Dans deux lycées, de Nice et Marseille, la région PACA avait donné son feu vert à un test technologique : la comparaison faciale à l’entrée des établissements. Pour fluidifier les entrées, et éviter les intrusions. Avec des garde-fous. Car rien n’aurait pu se faire sans le consentement des élèves et de leurs parents.

Mais la CNIL a dit non.

« Dispositif ni nécessaire ni proportionné », a-t-elle estimé. Les élus de droite LR, là-bas, en sont tombés de leur chaise ! A commencer par Christian Estrosi, le maire de Nice, pionnier de la vidéosurveillance et qui a récemment testé la reconnaissance faciale lors du dernier carnaval.

Que trouve-t-il de si merveilleux dans ces technologies ? Principal argument : la localisation quasi immédiate d’un suspect... Même Christophe Castaner, le ministre de l’intérieur, le reconnaît : lorsque Lyon a subi une attaque à la bombe, en mai dernier, les policiers ont dû éplucher pendant deux jours les enregistrements des caméras de surveillance avant de réussir à identifier le suspect. Alors que la reconnaissance faciale aurait largement réduit les délais !

Et puis cette technologie n’est pas que sécuritaire, argumentent les élus qui la défendent. Un enfant qui se perd dans la foule, un patient atteint d’Alzheimer qui s’échappe d’un Ehpad, on les localise en quelques secondes. Et ça, c'est aussi un progrès.

Mais alors pourquoi est-ce que ça bloque ?

Préfère-t-on un suspect en liberté ou des millions de citoyens innocents sous surveillance permanente ? C’est en ces termes que le philosophe Gaspard Koenig pose le débat. Vertigineux. 

La Chine n’a pas ce complexe : là-bas, la reconnaissance faciale et ses algorithmes vont jusqu’à repérer le citoyen fraudeur pour diffuser sa photo et l’humilier publiquement. 

Mouvement inverse dans la Californie des pionniers de l’intelligence artificielle : la ville de San Francisco vient d’encadrer drastiquement son utilisation par la police. Car l’outil n’est pas fiable à 100%, en particulier sur les populations qui n’ont pas la peau blanche. Imaginez le risque de bavure. 

Et nous, en France, on fait quoi ?

On cherche une troisième voie, pour ne pas décrocher de la compétition mondiale... car ne rien faire, ce serait perdre en souveraineté et subir les technologies leaders.

Le maître mot, c’est donc d’expérimenter. Comme cette application de service en ligne sur smartphone, Alicem, que teste actuellement le ministère de l’intérieur. Là encore, la CNIL émet de sérieuses réserves. A partir de quand le citoyen perd sa liberté, à quel moment l’Etat pourra-t-il être tenté de le suivre à la trace ? La vraie question, c’est celle-là : comment protéger l’Etat contre lui-même, le pouvoir contre ses tentations, le risque de dérives autoritaires, d’ultra contrôle et d’intimidation sur des opposants ou des manifestants ?

Pour l’instant, le secrétaire d’Etat au numérique Cedric O, n’a pas de réponses, il se pose beaucoup de questions éthiques. Quelques rares députés planchent sur le sujet. Mais la grande explication n’a pas encore eu lieu. 

On peut le regretter ou s’en offusquer, mais l’individu sacré, le citoyen anonyme, tout ça n’est déjà plus qu’un mythe. Nous avons tous déjà cédé une part de nous-mêmes en acceptant les règles commerciales de la vie numérique ! Oui nous sommes sous la menace d’un petit Léviathan, l’Etat, mais déjà dans les mains d’un Léviathan géant, qu’il soit chinois ou américain.

L'équipe
Ce contenu n'est pas ouvert aux commentaires.