Près de 30 experts internationales, spécialistes en intelligence artificielle, cybersécurité et robotique appellent les gouvernements et les différents acteurs concernés à mettre en place des parades pour limiter les menaces potentielles liées aux progrès techniques considérables dans ce domaine.

La sécurité informatique autour des robots et autres intelligences artificielles inquiète les experts qui craignent des menaces et le renforcement de la cybercriminalité.
La sécurité informatique autour des robots et autres intelligences artificielles inquiète les experts qui craignent des menaces et le renforcement de la cybercriminalité. © AFP / Patrick Lefevre / BELGA MAG

L'intelligence artificielle va-t-elle devenir hors de contrôle ? L'efficacité croissante de l'IA risque, dans les dix prochaines années, de "renforcer la cybercriminalité" mais aussi "de conduire à des utilisations de drones ou de robots" à des fins terroristes, alertent 26 experts mondiaux qui signent un rapport sur les risques autour d'une utilisation malveillante de l'IA.

Ce rapport de 100 pages a été rédigé par 26 experts spécialistes en intelligence artificielle (IA), cybersécurité et robotique et appartiennent à des universités (Cambridge, Oxford, Yale, Stanford) et à des organisations non gouvernementales (OpenAI, Center for a New American Security, Electronic Frontier Foundation).  

L'IA pourrait permettre des attaques terroristes particulièrement efficaces

Les auteurs du rapport appellent les gouvernements et les différents acteurs concernés à mettre en place des parades pour limiter les menaces potentielles liées à l'intelligence artificielle : "Nous pensons que les attaques qui seront permises par l'utilisation croissante de l'IA seront particulièrement efficaces, finement ciblées et difficiles à attribuer."

Pour illustrer leurs craintes, ces spécialistes évoquent plusieurs "scénarios hypothétiques" d'utilisation mal intentionnée de l'IA.  Ils soulignent que des terroristes pourraient modifier des systèmes d'IA disponibles dans le commerce (drones, véhicules autonomes), pour provoquer des crashs, des collisions ou des explosions.

Des risques dont semblent conscients les pouvoirs publics en France, du moins. Le mathématicien et député de l'Essonne Cédric Villani, précisait dans Le 1, le 31 janvier dernier, la nécessité d'accompagner l'essor de l'intelligence artificielle pour éviter que les robots de demain soient vus comme une menace par la population. Le lauréat de la médaille Fields précisait, en ce sens, qu'il faudrait notamment renforcer l'arsenal de protection de nos données personnelles, car nul n'est à l'abri du piratage d'une IA - le petit nom de l'intelligence artificielle, dans l'esprit de ce que propose le RGPD ou règlement général de la protection des données qui doit entrer en vigueur en Europe en mai prochain.

Risques politiques

Par ailleurs, "la cybercriminalité, déjà fortement en hausse, risque de se renforcer avec les outils procurés par l'IA", a déclaré à l'AFP Seán Ó hÉigeartaigh, directeur du "Centre for the Study of Existential Risk" de l'Université de Cambridge, un des auteurs du rapport. Les attaques par hameçonnage ciblé (spear phishing) pourraient ainsi devenir beaucoup plus aisées à mener à une large échelle. 

Mais pour lui, "le risque le plus sérieux, même si il est moins probable, est le risque politique". Faisant allusion aux suspicion d'ingérence russe dans la présidentielle américaine, l'expert rappelle que "nous avons déjà vu comment des gens se servaient de la technologie pour essayer d'interférer dans les élections et la démocratie".  

Entre trucage des élections, opérations de propagande - avec l'IA, il devrait être possible de réaliser des fausses vidéos très réalistes et cela pourrait être utilisé pour discréditer des responsables politiques, avertit le rapport - et difficiles attributions des attaques terrosites, "cela pourrait poser de gros problèmes de stabilité politique et contribuer peut-être à déclencher des guerres", estime Seán Ó hÉigeartaigh.  

Autre risque pointé par les experts, à la Big Brother ou façon Minority report : les États autoritaires vont aussi pouvoir s'appuyer sur l'IA pour renforcer la surveillance de leurs citoyens

Ce n'est pas la première fois que des inquiétudes s'expriment concernant l'IA. Dès 2014, l'astrophysicien Stephen Hawking lançait une mise en garde sur les risques qu'elle pourrait faire courir à l'humanité, en dépassant l'intelligence humaine. 

L'entrepreneur Elon Musk et d'autres ont aussi tiré la sonnette d'alarme, alors même que leurs activités consistent à proposer des services et des appareils basés sur les technologies de réalité augmentée et d'intelligence artificielle, ce qui laisse planer un sérieux soupçon de conflit d'intérêt.

Des rapports spécifiques sur l'utilisation de drones tueurs ou sur la façon dont l'IA pourrait affecter la sécurité des États-Unis, enfin, ont également été publiés.

Consulter le rapport (en anglais) :

Articles liés
Ce contenu n'est pas ouvert aux commentaires.