Cette semaine dans Net Plus Ultra, on se demande à quel point l'intelligence artificielle peut prendre la place des humains quand il s'agit de parler de justice, de droit, de règles et de morale. Et la vidéo de la semaine, c'est un live de 11h samedi consacré à l'environnement.

Les voitures autonomes sont notamment en question : comme l'algorithme prendra-t-il des décisions d'ordre moral ?
Les voitures autonomes sont notamment en question : comme l'algorithme prendra-t-il des décisions d'ordre moral ? © AFP / Hu yan / Imaginechina

On présente souvent l'intelligence artificielle comme une entité qui va un jour remplacer les humains. Mais pas dans tous les domaines : il semblerait que dans le domaine du droit ce ne soit pas encore pour demain. Exemple : l'entreprise Juritravail, spécialisée dans le conseil juridique a travaillé pendant deux ans sur un assistant vocal à adapter sur les appareils de type Google Home ou Alexa. 

Ce robot devait être capable de répondre automatiquement aux questions juridiques des utilisateurs en cas de pépin... mais au bout de plusieurs mois de développement les équipes se sont rendues compte d'un petit souci : "Plus on travaillait sur le sujet, plus on a pris conscience que ces outils avaient un véritable effet gadget dans un domaine qui ne permet pas de le faire. C'est-à-dire que lorsqu'on a un problème juridique qui nous tombe sur la tête, on est content aujourd'hui de parler à un humain", explique David Bitton, le président de l'entreprise.

Résultat : l'entreprise est revenue sur son projet et a lancé à la place... un service téléphonique. Ce sont finalement les conseillers juridiques au bout du fil qui utilisent cet assistant automatique pour affiner leurs réponses.

Si ça n'a pas marché, c'est essentiellement parce qu'une intelligence artificielle est basée sur des algorithmes, donc elle peut faire des déductions mais elle n'a ni sens de l'interprétation ni sens de la morale. Et l'exemple le plus parlant c'est celui de la voiture autonome. Ces véhicules pilotés par des intelligences artificielles vont devoir, en cas d'accident inévitable, décider ce qu'ils font et ça, ce n'est pas gagné : "Il va falloir définir des choses qu'on n'a pas envie de définir moralement. Aujourd'hui, un conducteur humain réagit dans l'impulsion du moment. A partir du moment où l'on aura des automobiles pilotées par des algorithmes, il n'y aura plus cette intuition du moment. On va donc devoir définir des préférences en matière éthique", explique l'essayiste Alexandre Lacroix. 

En clair, et de façon assez cynique, votre voiture autonome lancée à toute vitesse ne saura pas décider seule si elle doit vous sacrifier ou tuer le piéton vers lequel elle se dirige. Pour Alexandre Lacroix cet exemple montre que dans ce domaine, qui implique des décisions qui ont un impact juridique, les intelligences artificielles ont encore besoin d'être accompagnées. Ça ne veut pas dire qu'ils ne sont pas déjà utilisés : aux Etats-Unis par exemple des logiciels aident les juges à prendre leurs décisions... seulement les erreurs sont encore trop nombreuses.

La vidéo de la semaine : le Climarathon sur Twitch

Une fois n'est pas coutume, la vidéo de la semaine n'est pas en ligne : ce samedi, de 10h à 21h, la plateforme Twitch accueille le "Climarathon", onze heures d'émission avec vingt invités pourparler environnement. Ils seront interviewés par des youtubeurs et youtubeuses spécialisé.e.s et répondront aux questions des internautes. Pour regarder cet événement, suivez ce lien ! 

L'équipe
Ce contenu n'est pas ouvert aux commentaires.