L'intelligence artificielle s'invite dans les dispositifs de surveillance. L'industrie de la protection, les villes et l'État promettent plus de sécurité grâce à la technologie : c'est la "safe-city". Dans PAR EFFRACTION, Caroline Gillet, Claire Richard et Martin Drago tentent de passer entre les mailles du filet.

PAR EFFRACTION - Au Centre de Supervision Urbain de Châtelet - Les Halles
PAR EFFRACTION - Au Centre de Supervision Urbain de Châtelet - Les Halles © Claire Braud

Dans cet épisode du hors-série PAR EFFRACTION, Caroline Gillet, accompagnée de la journaliste et autrice Claire Richard et du juriste de la Quadrature du Net Martin Drago, s'intéresse au déploiement, de plus en plus important, dans les villes, de la vidéosurveillance (ou vidéoprotection) et de la technologie au service de la sécurité. Après avoir tenté d'échapper aux dizaines de caméras, plus ou moins cachées, dans le centre de Paris, l'équipe tentera de s'infiltrer dans un Centre de Supervision Urbain (CSU), une infrastructure invisible de contrôle. C'est au CSU de Châtelet-les-Halles, logé dans les sous-sols de la plus grande station de métro de Paris, que Foule continentale tente ce mois-ci son effraction.

Caroline Gillet, Claire Richard et Martin Drago tentent d'échapper aux caméras de vidéosurveillance du centre de Paris et de traverser une partie de la ville sans être filmé·e·s
Caroline Gillet, Claire Richard et Martin Drago tentent d'échapper aux caméras de vidéosurveillance du centre de Paris et de traverser une partie de la ville sans être filmé·e·s © Radio France / Caroline Gillet

"La 'safe-city', c'est comme la 'smart-city', mais en plus flippant !"

Le déploiement de la technologie au service de la sécurité dans les villes est au cœur du concept des "safe-cities", qui s'inspire lui-même du concept des "smart cities", né dans les années 2010 et décrivant ces villes "améliorées" ou "optimisées" par des dispositifs technologiques, couplés à la puissance plus importante des ordinateurs qui permet le traitement de très nombreuses données. Dans le contexte des "smart cities", ces dispositifs numériques visent principalement à améliorer la vie urbaine et civique, optimisant par exemple la circulation, les flux de personnes, de ressources ou d'énergie, la pollution, la qualité de l'air, celle de l'eau, etc. La "safe city" pousse le curseur un cran plus loin et propose des dispositifs de sécurité importants, tels que les caméras de surveillance, les capteurs et les technologies de reconnaissance faciale, l'intelligence artificielle au service de la détection des comportements suspects. Claire Richard explique schématiquement que l'on n'est pas loin du film Minority Report.

La "safe city", c’est la déclinaison sécuritaire de la "smart city". C’est l’idée que, grâce à cette fameuse intelligence qui viendrait de la collecte et du traitement de données automatisés, on va pouvoir rendre la ville plus sûre : donc limiter la délinquance et, potentiellement, anticiper les risques, c'est-à-dire créer une sorte de police prédictive.

La "ville sûre" est à nos portes

Déjà très diffusés aux États-Unis et en Chine, les projets de "safe cities" font des émules dans l'Hexagone depuis peu, à l'instar de la ville de Nice, expérimentant ces dispositifs sécuritaires dans ses rues depuis 2019 dans le but de créer la ville « sûre et intelligente de demain ».

Pour afficher ce contenu Youtube, vous devez accepter les cookies Publicité.

Ces cookies permettent à nos partenaires de vous proposer des publicités et des contenus personnalisés en fonction de votre navigation, de votre profil et de vos centres d'intérêt.
Gérer mes choix

La ville de Marseille, que la journaliste Claire Richard présente comme l'un des « laboratoires de la "safe city" en France », a également fait ses preuves en matières de dispositifs de surveillance civile : l’ancienne municipalité Les Républicains y a développé toute une plate-forme de collecte et d’analyse de données en temps réel, sous le nom d’Observatoire Big Data de la Tranquillité Publique.

Limitations de ces dispositifs

S'ils commencent à gagner du terrain, ces dispositifs posent de nombreuses questions quant au respect de la vie privée et des libertés individuelles. Parmi elles, celle du pouvoir qu'ils confèrent aux autorités municipales ou étatiques et de la menace qu'ils font peser sur l'exercice de la démocratie. Chacun·e est par exemple en droit de se demander dans quelle mesure l'identification de tou·te·s les citoyen·ne·s par reconnaissance faciale dans l'espace public et la collecte de toutes ces données personnelles et/ou biométriques pourraient dissuader de prendre part à des manifestations ou des mouvements de contestations.

Tout ça pourrait transformer en profondeur la vie publique. Est-ce que vous allez participer à une manifestation ou une action de protestation dans l’espace public si vous savez que vous risquez d’être identifié·e par une caméra ? Et, plus largement, est-ce qu’on trouve que c’est acceptable une société où les pouvoirs en place peuvent à terme identifier les individus dans l’espace public ? En temps réel, tout le temps...

Pour afficher ce contenu Youtube, vous devez accepter les cookies Publicité.

Ces cookies permettent à nos partenaires de vous proposer des publicités et des contenus personnalisés en fonction de votre navigation, de votre profil et de vos centres d'intérêt.
Gérer mes choix

"La technologie reproduit nos défauts plutôt que de les corriger"

L'un des autres enjeux posés par ces questions est celui des biais discriminatoires. Parmi les arguments des institutions et des industriels qui soutiennent le développement de la "safe-city", on trouve celui-ci : un algorithme de reconnaissance faciale, couplé à un dispositif de vidéoprotection, permet de gommer les biais discriminatoires induits par le traitement humain des images. Pour Claire Richard, tout cela n'est qu'un leurre. Plusieurs études soulignent en effet la difficulté de ces dispositif à identifier les visages non blancs avec autant de précision et d'exactitude que les visages blancs. 

La technologie reproduit les biais racistes à l'œuvre dans la société d'une manière générale. Les logiciels de reconnaissance faciale sont entraînés sur des bases d'images qui comptent plus de visages blancs. On a donc un plus grand risque d'avoir des faux positifs pour des visages noirs. Si vous êtes noir, vous avez donc un plus grand risque d'être arrêté à tort sur la base de la reconnaissance faciale.

Pour Claire Richard, tout comme pour le juriste et militant Martin Drago, il y a donc une réelle nécessité de transparence et d'un débat public autour de ces questions-là. Il ne s'agit en effet pas de problèmes techniques ou technologiques, mais d'enjeux sociaux et de libertés individuelles et publiques.

Pour aller plus loin

La programmation musicale du jour

Jungle, "Keep Moving", 2021

Foule continentale continue sur les réseaux

Retrouvez Foule Continentale sur Facebook et Instagram avec le mot-dièse #foulecontinentale ou sur le compte de Caroline Gillet.

Pari perdu !

Pari perdu ! Caroline Gillet, Claire Richard et Martin Drago ont été filmé·e·s en tentant d'atteindre, par effraction, le Centre de Supervision Urbain (CSU) de Châtelet - Les Halles
Pari perdu ! Caroline Gillet, Claire Richard et Martin Drago ont été filmé·e·s en tentant d'atteindre, par effraction, le Centre de Supervision Urbain (CSU) de Châtelet - Les Halles © Radio France / Caroline Gillet
Les invités
L'équipe
Contact