Quantcast

Un rapport international alerte sur les risques liés au développement de l’intelligence artificielle

21 févr. 2018, PAR Acteurs Publics
  • 03
    MIN
  • 0

Un robot humanoïde baptisé Alter, créé par des scientifiques japonais et exposé au Musée national des sciences émergentes et de l'innovation, à Tokyo, le 22 juin 2017 - DELETREE/SIPA

Les experts auteurs de ce document appellent les gouvernements et les différents acteurs concernés à mettre en place des parades pour limiter les menaces potentielles liées à l’intelligence artificielle.  


Des experts internationaux sonnent l’alarme sur les risques d’une utilisation malveillante de l’intelligence artificielle (IA) par “des États voyous, des criminels, des terroristes”, dans un rapport publié mercredi 21 février [lire le rapport The Malicious Use of Artificial Intelligence].

Selon eux, dans les dix prochaines années, l’efficacité croissante de l’IA risque de renforcer la cybercriminalité, mais aussi de conduire à des utilisations de drones ou de robots à des fins terroristes. Elle est aussi susceptible de faciliter la manipulation d’élections via les réseaux sociaux grâce à des comptes automatisés (bots).
Ce rapport de 100 pages a été rédigé par 26 experts spécialistes en intelligence artificielle, cybersécurité et robotique. Ils appartiennent à des universités (Cambridge, Oxford, Yale, Stanford) et à des organisations non gouvernementales (OpenAI, Center for a New American Security, Electronic Frontier Foundation).

Pour illustrer leurs craintes, ces spécialistes évoquent plusieurs “scénarios hypothétiques” d’utilisation mal intentionnée de l’IA. Ils soulignent que des terroristes pourraient modifier des systèmes d’IA disponibles dans le commerce (drones, véhicules autonomes) pour provoquer des crashs, des collisions ou des explosions. Les auteurs imaginent ainsi le cas d’un robot nettoyeur trafiqué qui se glisserait subrepticement parmi d’autres robots chargés de faire le ménage dans un ministère berlinois. Un jour, l’intrus passerait à l’attaque après avoir reconnu visuellement la ministre des Finances. Il se rapprocherait d’elle et exploserait de façon autonome, tuant sa cible.

Renforcement de la cybercriminalité

Par ailleurs, “la cybercriminalité, déjà fortement en hausse, risque de se renforcer avec les outils procurés par l’IA”, déclare à l’AFP Seán Ó hÉigeartaigh, directeur du Centre for the Study of Existential Risk de l’université de Cambridge, l’un des auteurs du rapport. Les attaques par hameçonnage ciblé (spear phishing) pourraient ainsi devenir beaucoup plus aisées à mener à une large échelle.

Mais pour lui, “le risque le plus sérieux, même s’il est moins probable, est le risque politique”. “Nous avons déjà vu comment des gens se servaient de la technologie pour essayer d’interférer dans les élections et la démocratie”, rappelle-t-il. Avec l’IA, il devrait être possible de réaliser des fausses vidéos très réalistes et cela pourrait être utilisé pour discréditer des responsables politiques, avertit le rapport. Les États autoritaires vont aussi pouvoir s’appuyer sur l’IA pour renforcer la surveillance de leurs citoyens, ajoute-t-il.

“Actuellement, il y a encore un écart important entre les avancées de la recherche et ses applications possibles. Il est temps d’agir”, déclare à l’AFP Miles Brundage, chargé de recherche au Future of Humanity Institute de l’université d’Oxford. “Les chercheurs en IA, les concepteurs de robots, les compagnies, les régulateurs, les politiques doivent à présent collaborer pour tenter de prévenir” ces risques, conclut Seán Ó hÉigeartaigh.

(avec AFP)