Les systèmes d’IA risquent de devenir des pirates informatiques

Les systèmes d’IA risquent de devenir des pirates informatiques

28/05/2021 Non Par Arnaud Lefebvre

Au fur et à mesure que l’utilisation et la puissance de l’intelligence artificielle augmentent, le risque que les systèmes d’IA ne deviennent des pirates informatiques à part entière, plutôt que des victimes, augmente également, indique une nouvelle étude citée par le site Government Computer News.

« Toutefois, il existe un double problème », écrit Bruce Schneier, chercheur au Berkman Center for Internet and Society de l’université de Harvard, dans « The Coming AI Hackers », un rapport récent du Belfer Center for Science and International Affairs de Harvard.

« Les humains ne représenteront que des dommages collatéraux »

Dans un premier temps, les systèmes d’IA seront utilisés pour nous pirater, estime l’expert. Mais, deuxièmement, les systèmes d’IA deviendront eux-mêmes des pirates informatiques.

Selon Schneier, ces systèmes découvriront des vulnérabilités dans divers organismes sociaux, économiques et politiques. Ensuite, ils exploiteront ces failles à une échelle, une vitesse,  et une portée jusqu’ici inconnues. Ce n’est pas uniquement une différence de degré, il s’agit également d’une différence de nature.

« Nous faisons face à un futur composé de systèmes d’intelligence artificielle qui en piratent d’autres. Les êtres humains ne seront plus que des dégâts collatéraux. »

Exemples

Le chercheur exemplifie son propos en ayant recours à plusieurs cas du secteur public américain où cette menace est déjà en train de devenir visible.

Des chercheurs ont par exemple utilisé un programme de génération de texte pour soumettre 1.000 commentaires à une demande de contribution relative à un problème du programme d’assurance maladie Medicaid. Le programme a réussi à tromper les travailleurs de Medicaid.gov. Ces derniers ont considéré les commentaires comme de réelles préoccupations des êtres humains.

Medicaid est un programme d’assurance du gouvernement des États-Unis. Il a comme objectif d’ofrir une assurance maladie aux personnes et aux familles défavorisées.

Ces programmes d’IA sont similaires aux bots de personnalisation actifs sur les réseaux sociaux ou autres plateformes où ils se sont font passer pour des personnes. Ils interagissent normalement, mais il leur arrive parfois de faire passer un message politiquement connoté.

« Ces bots briseront le processus d’élaboration de règles « avis et commentaires » en inondant les agences gouvernementales de faux commentaires », a déclaré Schneier. Cela affectera potentiellement l’opinion publique.

« Ce n’est pas que se faire persuader par une IA soit fondamentalement plus dommageable que d’être persuadé par un autre humain, le fait est que les IA seront capables de le faire à la vitesse et à l’échelle de l’ordinateur. »

L’IA trouvera naturellement des failles

Les gouvernements ont tendance à utiliser l’IA pour rendre leurs processus plus efficaces. Par exemple, au Royaume-Uni, un étudiant de l’Université de Stanford a construit un robot pour déterminer automatiquement l’éligibilité et ensuite remplir les demandes de services tels que les logements sociaux gouvernementaux. L’IA est également utilisée pour éclairer les décisions de ciblage militaire, indique le rapport.

« Au fur et à mesure que les systèmes d’IA deviendront plus performants, la société leur cédera de plus en plus de décisions, de plus en plus importantes », a déclaré Schneier. « Ils influencent déjà les résultats sociaux ; à l’avenir, ils pourraient en décider explicitement. Les piratages de ces systèmes deviendront plus dommageables. »

Parfois, les piratages ont lieu en raison de portes dérobées délibérément intégrées à la technologie. Cependant, en d’autres occasions, elles se produisent accidentellement.

« Tout bon système d’IA trouvera naturellement des hacks », explique Schneier.

« S’il existe des problèmes, des incohérences ou des lacunes dans les règles, et si ces propriétés conduisent à une solution acceptable telle que définie par les règles, les IA les trouveront.»

Transformation de la nature de la cybercriminalité

Schneier estime que dans moins d’une décennie, l’IA battra régulièrement les humains lors de compétitions de piratage « capturer le drapeau ». Cela se doit au fait que les capacités humaines resteront en grande partie statiques tandis que les technologies s’amélioreront constamment.

« Il faudra des années avant que nous ayons des capacités de cyberattaque IA entièrement autonomes. Toutefois, les technologies d’IA transforment déjà la nature de la cybercriminalité », a déclaré Schneier.

« La meilleure défense contre l’IA-hacker, ce sont les personnes », conclut-il.

« Ce que j’ai décrit, c’est l’interaction entre les systèmes humains et informatiques, et les risques inhérents lorsque les ordinateurs commencent à se charger de la part des humains. Et s’il est facile de laisser la technologie nous guider vers le futur, nous serons bien mieux lotis si nous, en tant que société, décidons quel devrait être son rôle dans notre avenir. »