IA et robots : Les guerres du futur sont-elles déjà là ?

IA et robots : Les guerres du futur sont-elles déjà là ?

08/09/2023 Non Par Guillaume Pruvost

Les avancées technologiques dans le domaine militaire, telles que les armes autonomes, l’intelligence artificielle, les satellites et les robots tueurs, ont été conséquentes ces dernières années. Elles soulèvent d’énormes interrogations géostratégiques, politiques et éthiques. Asma Mhalla et Michel Goya explorent le paysage des combats futurs.

Avec des munitions autonomes, des drones kamikazes et des satellites en orbite basse, le conflit en Ukraine a offert une première illustration à grande échelle de ce à quoi pourraient ressembler les batailles à venir. La rupture technologique dans le domaine de la guerre conventionnelle n’est plus une simple perspective, mais une réalité qui pourrait bientôt devenir la norme. L’intelligence artificielle, en particulier, représente une avancée technologique sans précédent, susceptible de révolutionner la gestion des conflits ainsi que la dynamique même des zones de conflits de haute intensité.

IA utilisé à des fins malveillantes : une régulation est nécessaire

Dans les années à venir, les conflits traditionnels pourraient évoluer vers ce que l’on appelle des « guerres d’hypervitesse » ou des « hyperguerres », portant en eux un risque majeur et potentiellement catastrophique : celui de l’accident. Au-delà des images saisissantes de drones suicides, la réalité militaire de l’intelligence artificielle est déjà mise en œuvre sur le terrain, notamment à grande échelle en Ukraine.

Cependant, à l’heure actuelle, ces technologies ne constituent pas encore une véritable « hyperguerre ». Néanmoins, à long terme, si des armes totalement autonomes alimentées par l’IA voient le jour, à quoi ressembleront alors les conflits du futur ? Le concept familièrement connu du modèle Skynet du film Terminator prend-il forme dans la réalité des laboratoires de recherche ? Cette question complexe soulève des enjeux politiques, éthiques et juridiques.

Toutefois, malgré les évolutions et perturbations potentielles qu’elle pourrait entraîner, la nature fondamentale de la guerre reste inchangée. Bien que fournir une réponse précise et catégorique en termes de prévisions soit difficile, il est toujours possible de pousser plus loin la réflexion.

Récemment, António Guterres, secrétaire général des Nations unies, a mis en garde en déclarant que l’usage inadapté de solutions d’intelligence artificielle dans des buts terroristes, criminels ou étatiques pourrait entraîner un nombre effroyable de décès et de destructions, des traumatismes généralisés et des dommages psychologiques profonds à une échelle inimaginable. Cette déclaration souligne l’aspect alarmant de la situation et établit une corrélation entre les différents systèmes d’intelligence artificielle existants en termes de potentiel dangereux, un point qui n’a pas échappé à l’attention. En particulier, cette déclaration met en évidence la nécessité pressante de réglementer l’utilisation de l’IA à l’échelle mondiale, un objectif que l’ONU cherche à atteindre en envisageant la création d’un organisme international dédié à cette mission.

Un futur accord contre l’usage de l’IA dans les armes automatisées ?

D’ici la fin de l’année, il est projeté que ce corps prenne forme en tant que conseil consultatif. Ce conseil sera habilité à créer des propositions et à donner des recommandations concernant la régulation aux états membres de l’ONU. Cette annonce survient durant une période active en termes de réglementation, principalement menée par l’Union européenne avec son AI Act.

Aux Nations unies, l’attention est actuellement concentrée sur les conflits armés. Il est envisageable qu’avant 2026, l’organisation internationale aura développé un accord interdisant l’utilisation de l’intelligence artificielle au sein des armes automatisées. Ces renseignements ont été relayées par António Guterres.

L’IA pour cesser la conception d’armes de destruction massive ?

James Cleverly, le ministre britannique des affaires étrangères, qui a dirigé la réunion du 18 juillet se penchant sur les conséquences de l’intelligence artificielle, a souligné que l’introduction de l’intelligence artificielle ébranle profondément les bases de notre approche en matière de défense et de dissuasion. Cette avancée technologique suscite des préoccupations éthiques concernant la responsabilité des décisions qui peuvent entraîner des conséquences mortelles sur les champs de bataille.

Dans un contexte où plusieurs acteurs majeurs du secteur privé se lancent dans une course effrénée pour développer leurs propres systèmes d’IA, laissant ainsi certains pays du Sud à la marge de cette dynamique, la question de l’équité dans l’accès à ces technologies se pose de manière de plus en plus pressante. Un exemple concret est la démarche de l’Union européenne pour éviter une concentration du marché entre quelques grandes entreprises américaines, un scénario similaire à celui observé dans le domaine du cloud computing.

James Cleverly a partagé un point de vue nuancé à ce sujet, en mettant en avant un aspect positif de l’intelligence artificielle dans son ensemble : « L’intelligence artificielle pourrait encourager une course effrénée vers le développement d’armes de destruction massive, que cela émane d’acteurs étatiques ou non étatiques. Néanmoins, elle pourrait également jouer un rôle dans la cessation de cette prolifération. »