L‘intelligence artificielle pourrait-elle bouleverser les concepts de dissuasion nucléaire qui ont contribué à épargner le monde de la guerre nucléaire depuis 1945 ? Les progrès étonnants de l’IA, couplés à une prolifération de drones, de satellites et d’autres capteurs, augmentent la possibilité que les pays puissent trouver et menacer les forces nucléaires les uns des autres, ce qui entraîne une escalade des tensions.

La crainte que les ordinateurs, par erreur ou par malveillance, conduisent l’humanité au bord de l’anéantissement nucléaire a hanté l’imagination depuis les premiers jours de la guerre froide.

Le danger pourrait bientôt être plus de la science que de la fiction. Les progrès fulgurants de l’intelligence artificielle ont créé des machines qui peuvent apprendre et penser, provoquant une nouvelle course aux armements parmi les grandes puissances nucléaires du monde. Ce ne sont pas les robots tueurs des superproductions hollywoodiennes dont nous devons nous inquiéter ; c’est la façon dont les ordinateurs peuvent remettre en question les règles de base de la dissuasion nucléaire et amener les humains à prendre des décisions dévastatrices.

C’est la prémisse d’un nouveau document de RAND Corporation, How Might Artificial Intelligence Affect the Risk of Nuclear War ? Cela fait partie d’un projet spécial au sein de RAND, connu sous le nom de Security 2040, de regarder au-delà de l’horizon et d’anticiper les menaces à venir.

« Ce n’est pas seulement un scénario de film « , a déclaré Andrew Lohn, un ingénieur de RAND qui a coécrit le journal et dont l’expérience avec l’IA comprend son utilisation pour acheminer les drones, identifier les appels de baleines et prédire les résultats des jeux de la NBA. « Des choses relativement simples peuvent créer des tensions et nous conduire à des endroits dangereux si nous ne faisons pas attention. »

Les workshops ont examiné l’impact de l’informatique avancée sur la sécurité nucléaire jusqu’en 2040. Le point culminant de ces ateliers, cette Perspective – l’un d’une série qui examine les défis critiques en matière de sécurité en 2040 – situe l’intersection de l’IA et de la guerre nucléaire dans un contexte historique et caractérise l’éventail des opinions d’experts. Il décrit ensuite les types de préoccupations et d’avantages anticipés à l’aide de deux exemples illustratifs : l’AI pour la détection et pour le suivi et le ciblage, et l’AI en tant que conseiller de confiance dans les décisions. Compte tenu des capacités que l’intelligence artificielle devrait permettre et de la façon dont les adversaires peuvent les percevoir, l’intelligence artificielle risque d’exacerber les nouveaux défis à la stabilité stratégique nucléaire d’ici 2040, même si les progrès techniques sont modestes. Il est donc important de comprendre comment cela pourrait se produire et de s’assurer qu’il n’en est rien.

Pour comprendre comment les ordinateurs intelligents peuvent augmenter le risque de guerre nucléaire, il faut comprendre un peu pourquoi la guerre froide n’a jamais été nucléaire. Les théories sont nombreuses, mais les « représailles assurées » ont toujours été l’une des pierres angulaires. En termes simples, cela signifie : Si tu me frappes, je te frapperai en retour. Avec des armes nucléaires en jeu, ce contre-punch pourrait anéantir des villes entières, une perte qu’aucun des deux camps n’était prêt à risquer.

Les systèmes autonomes n’ont pas besoin de tuer des gens pour saper la stabilité et rendre la guerre catastrophique plus probable.

Cette théorie mène à des conclusions apparemment contre-intuitives. Si les deux camps ont des armes qui peuvent survivre à une première frappe et riposter, la situation est stable. Aucun des deux camps ne prendra le risque de lancer le premier coup. La situation devient plus dangereuse et incertaine si une partie perd sa capacité de riposter ou même si elle pense qu’elle risque de perdre cette capacité. Elle pourrait réagir en créant de nouvelles armes pour regagner son avantage. Ou elle peut décider qu’elle doit lancer ses coups plus tôt, avant d’être frappée en premier.

C’est là que réside le véritable danger de l’IA. Les ordinateurs peuvent déjà scanner des milliers de photos de surveillance, à la recherche de modèles qu’un œil humain ne verrait jamais. Il n’est pas nécessaire d’avoir beaucoup d’imagination pour imaginer un système plus avancé qui prendrait les signaux des drones, les données satellites et même les messages des médias sociaux pour développer une image complète des armes et des défenses de l’adversaire.

L’intelligence artificielle jouant au Go

Comment l’intelligence artificielle pourrait-elle affecter le risque de guerre nucléaire ?
Un système qui peut être partout et tout voir pourrait convaincre un adversaire qu’il est vulnérable à une première frappe désarmante – qu’il risque de perdre. Cet adversaire s’empresse de trouver de nouvelles façons de niveler le terrain, par tous les moyens nécessaires. Cette route mène plus près de la guerre nucléaire.

« Les systèmes autonomes n’ont pas besoin de tuer des gens pour saper la stabilité et rendre la guerre catastrophique plus probable« , a déclaré Edward Geist, chercheur associé en politiques à RAND, spécialiste de la sécurité nucléaire et coauteur du nouveau document. « Les nouvelles capacités d’IA pourraient faire croire aux gens qu’ils vont perdre s’ils hésitent. Cela pourrait irriter et exciter. À ce moment-là, l’IA rendra la guerre plus probable, même si les humains sont encore sous contrôle. »

Les ordinateurs peuvent maintenant s’apprendre à marcher, à trébucher, à tomber, mais surtout à apprendre jusqu’à ce qu’ils réussissent. Leurs réseaux neuronaux imitent l’architecture du cerveau. Un ordinateur a récemment battu l’un des meilleurs joueurs du monde à l’ancien jeu de stratégie de Go avec un coup qui était si étranger, mais si efficace, que le joueur humain s’est levé, a quitté la pièce, puis a eu besoin de 15 minutes pour faire son prochain coup.

La Russie a récemment annoncé des plans pour un drone sous-marin apocalyptique avec une ogive nucléaire assez puissante pour détruire une grande ville.

Le potentiel militaire d’une telle superintelligence n’est pas passé inaperçu par les grandes puissances nucléaires mondiales. Les États-Unis ont expérimenté avec des bateaux autonomes qui pourraient suivre un sous-marin ennemi sur des milliers de kilomètres. La Chine a démontré des algorithmes d' »intelligence d’essaimage » qui permettent aux drones de chasser en meute. Et la Russie a récemment annoncé des plans pour un drone sous-marin apocalyptique qui pourrait se guider à travers les océans pour livrer une ogive nucléaire assez puissante pour détruire une grande ville.

Celui qui remporte la course à la supériorité de l’IA, a déclaré le président russe Vladimir Poutine,  » deviendra le dirigeant du monde « . Le fondateur de Tesla, Elon Musk, avait un point de vue différent : La course à la supériorité de l’IA, a-t-il averti, est la cause la plus probable de la troisième guerre mondiale.

Les chercheurs ont conclu que la prochaine génération d’IA aura « un potentiel important » pour saper les fondements de la sécurité nucléaire. Le temps du dialogue international est venu.

Le maintien de la paix nucléaire en ces temps de progrès technologiques exigera la coopération de toutes les puissances nucléaires. Il faudra de nouvelles institutions et de nouveaux accords mondiaux, de nouvelles ententes entre États rivaux et de nouvelles garanties technologiques, diplomatiques et militaires.

Il est possible qu’un futur système d’IA puisse s’avérer si fiable, si froidement rationnel, qu’il remonte les aiguilles de l’horloge de l’apocalypse nucléaire. L’erreur est humaine, après tout. Une machine qui ne fait pas d’erreurs, ne ressent pas de pression et n’a pas de préjugés personnels pourrait fournir un niveau de stabilité que l’âge atomique n’a jamais connu.

Ce moment est encore loin dans l’avenir, ont conclu les chercheurs, mais les années à venir seront particulièrement dangereuses. Un plus grand nombre de pays dotés d’armes nucléaires et une dépendance accrue à l’IA, surtout avant qu’elle ne soit arrivée à maturité sur le plan technologique, pourrait entraîner des erreurs de calcul catastrophiques. Et à ce moment-là, il pourrait être trop tard pour qu’un lieutenant-colonel, travaillant dans l’ombre, puisse arrêter la machinerie de guerre.

L’histoire de la catastrophe nucléaire de Stanislav Petrov met une nouvelle génération au courant des responsabilités d’introduire des changements technologiques profonds et potentiellement déstabilisants. Petrov, qui est mort en 2017, l’a dit simplement : « Nous sommes plus sages que les ordinateurs », a-t-il dit. « Nous les avons créés. »

Les chercheurs de RAND ont réuni certains des meilleurs experts en intelligence artificielle et en stratégie nucléaire pour cette série d’ateliers. Ils ont demandé aux experts d’imaginer l’état des systèmes d’armes nucléaires en 2040 et d’explorer les moyens de faire de l’IA une force stabilisante – ou déstabilisante – d’ici là.

PERSPECTIVE 1 : Scepticisme A propos de la technologie
De nombreux experts de l’IA étaient sceptiques quant au fait que la technologie sera suffisamment avancée d’ici là pour jouer un rôle important dans les décisions relatives au nucléaire. Elle devrait surmonter sa vulnérabilité au piratage informatique, ainsi que ses efforts accusatoires pour empoisonner ses données de formation – par exemple, en se comportant de façon inhabituelle pour créer de faux précédents.

PERSPECTIVE 2 : Les tensions nucléaires vont s’intensifier
Mais un système d’IA n’aurait pas besoin de fonctionner parfaitement pour augmenter les tensions nucléaires, ont répondu les stratèges nucléaires. Un adversaire n’aurait qu’à penser qu’il le fait et à réagir en conséquence. Il en résulterait une nouvelle ère de concurrence et de méfiance entre rivaux dotés d’armes nucléaires.

PERSPECTIVE 3 : L’AI apprend que le coup gagnant est de ne pas jouer.
Certains experts ont exprimé l’espoir qu’un jour, loin dans l’avenir, l‘IA pourrait devenir si fiable qu’elle évite la menace d’une guerre nucléaire. Elle pourrait être utilisée pour suivre le développement du nucléaire et s’assurer que les pays respectent les accords de non-prolifération, par exemple. Ou elle pourrait sauver les humains des erreurs et des mauvaises décisions prises sous la pression d’une impasse nucléaire. Comme l’a dit un expert, une future IA pourrait conclure, comme l’ordinateur dans le film « WarGames » de 1983, que le seul coup gagnant de la guerre nucléaire n’est pas de jouer.

RAND 2040

Project Credits
STORY Doug Irving
DESIGN AND PRODUCTION Chara Williams and Matthew Clews

 

 

 

Publicités

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.