Selon les premières analyses d'Uber, la voiture autonome qui a tué une femme de 49 ans le 19 mars dernier l'avait bien vu mais son logiciel ne l'a pas interprété comme un obstacle à éviter.

Capture d'écran de la vidéo de l'accident filmé par la voiture autonome d'Uber
Capture d'écran de la vidéo de l'accident filmé par la voiture autonome d'Uber © YouTube

La femme de 49 ans, décédée peu après l'accident à l'hôpital, était en train de traverser une route en périphérie de Phoenix,  son vélo à côté d'elle, quand elle a été percutée par la voiture autonome. La personne derrière le volant de la voiture Uber mais qui n'avait pas la main, et qui d'ailleurs ne regardait pas la route dans les secondes qui précédaient l'impact, n'a rien pu faire.

Certains spécialistes avaient à l'époque estimé qu'Uber avait trop réduit le nombre de capteurs de sa voiture, ce qui expliquait pourquoi elle n'avait pas vu la cycliste. Et bien pas du tout. Selon le site américain The Information, qui cite les premières analyses d'Uber, la voiture avait bien repéré la cycliste mais elle a mal interprété la situation. Elle l'a analysée comme un faux positif, comme par exemple un sac plastique qui virevolte et c'est pour cela qu'elle n'a pas freiné. Les ingénieurs d'Uber auraient baissé le niveau de sensibilité du logiciel de la voiture pour éviter qu'elle s'arrête toutes les deux secondes au moindre pigeon qui passe à proximité.  

L'homme, et non la machine, est responsable

Et ce sera le cas aussi plus tard dans les choix que feront les voitures autonomes. Car comme nous tous au quotidien quand nous sommes au volant, nous faisons des choix. On décide par exemple, de couper une ligne blanche pour dépasser un tracteur et bien de la même façon les voitures seront aussi amenées à faire des choix. Mais comment programmer des cadres éthiques ou des valeurs morales dans un algorithme ? Quelles sont les "règles" à lui faire respecter ? Des questions sur lesquelles réfléchit la CERNA, la commission de réflexion sur l'éthique de la recherche en sciences et technologies du numérique de l'alliance Allistene qui regroupe plusieurs centre de recherche français. Avec d'autres chercheurs Catherine Tessier, membre de la CERNA, s'est donc posée la question d'un scénario concret : "Une voiture autonome est arrêtée à un feu rouge à un carrefour. Un piéton traverse sur un passage clouté à sa droite. Une voiture pilotée par un humain s'engage dans la voie. Est-ce que la voiture autonome s'interpose entre la voiture qui risque d'écraser le piéton ou au contraire est-ce qu'elle respecte le code de la route et ne franchit pas le feu rouge ? Est-ce que l'on programme la voiture pour décider de telles actions ou non ?

Vaut-il mieux sacrifier la Joconde ou une vie humaine? 

Est-ce qu'il vaut mieux abîmer deux voitures et peut-être blesser les passagers du second véhicule pour sauver la vie du piéton ? Quelles informations seront retenues et entreront dans la balance ? Le nombre potentiel des victimes ? leur âge ? le matériel l'emporte-t-il sur l'humain ? Et si la voiture autonome transportait la Joconde ? Si pour certains l'humain l'emporte de façon évidente sur le matériel, ce ne sera peut-être pas le point de vue d'un assureur ou d'un pays à un autre. Des questions que les constructeurs comme les pays doivent se poser et cela AVANT le déploiement généralisé des véhicules autonomes. Pour le moment les constructeurs sont plus dans une course à la technologie que dans une réflexion sur l'éthique. L'Allemagne a, elle, pris les devants dès l'été dernier en tranchant sur quelques règles d'éthique. Elle a, par exemple, décidé qu'il ne fallait faire aucune distinction entre des individus selon des caractéristiques personnelles (âge, sexe, condition physique ou mentale).

Nous contacter
Ce contenu n'est pas ouvert aux commentaires.