IA et armes nucléaires: une fusion inévitable aux conséquences floues
Les experts nucléaires sont de plus en plus certains que l’intelligence artificielle (IA) sera bientôt intégrée aux systèmes d’armes nucléaires, bien que les implications précises de ce développement restent largement indéfinies. Ce consensus a émergé d’un rassemblement mi-juillet à l’Université de Chicago, où des lauréats du prix Nobel se sont réunis avec des scientifiques de premier plan, d’anciens fonctionnaires gouvernementaux et du personnel militaire à la retraite spécialisé dans la guerre nucléaire. L’objectif des sessions fermées de deux jours était d’informer ces personnalités influentes sur les armes les plus dévastatrices du monde, les guidant finalement pour formuler des recommandations politiques aux dirigeants mondiaux sur la manière d’éviter les conflits nucléaires.
L’IA a été un sujet central de discussion. Scott Sagan, professeur à Stanford reconnu pour ses recherches sur le désarmement nucléaire, a noté lors d’une conférence de presse : « Nous entrons dans un nouveau monde où l’intelligence artificielle et les technologies émergentes influencent notre vie quotidienne, mais aussi le monde nucléaire dans lequel nous vivons. » Cette déclaration reflète une conviction répandue parmi les experts selon laquelle la convergence de l’IA et des armes nucléaires est inévitable. Bob Latiff, général de division à la retraite de l’US Air Force et membre du Conseil scientifique et de sécurité du Bulletin of the Atomic Scientists, a comparé l’IA à l’électricité, déclarant : « Elle va se frayer un chemin dans tout. » Latiff est également impliqué dans le réglage annuel de l’Horloge de l’Apocalypse.
Cependant, les discussions sur l’IA et les armes nucléaires sont compliquées par des ambiguïtés fondamentales. Jon Wolfsthal, expert en non-prolifération et directeur des risques mondiaux à la Fédération des scientifiques américains, souligne que « personne ne sait vraiment ce qu’est l’IA ». Herb Lin, professeur à Stanford et ancien de l’Horloge de l’Apocalypse, a fait écho à ce sentiment, demandant : « Que signifie donner le contrôle d’une arme nucléaire à l’IA ? Que signifie donner le contrôle d’une arme nucléaire à une [puce informatique] ? » Il a ajouté que le débat a été largement façonné par la prééminence des grands modèles linguistiques (LLM).
Aussi, malgré ces incertitudes, il existe un consensus parmi les experts nucléaires sur un point crucial : personne ne croit que les LLM grand public comme ChatGPT ou Grok obtiendront un accès aux codes de lancement nucléaire dans un avenir proche. Wolfsthal a noté que si les experts ont des points de vue « théologiques » divers sur les questions nucléaires, ils sont unis dans leur exigence de « contrôle humain effectif sur la prise de décision en matière d’armes nucléaires ».
Néanmoins, des préoccupations persistent concernant d’autres applications potentielles des LLM au sein des plus hautes sphères du pouvoir. Wolfsthal a raconté avoir entendu des propositions de systèmes informatiques interactifs qui pourraient aider un président à prédire les actions d’adversaires comme Poutine ou Xi en analysant leurs déclarations et écrits passés. Il a remis en question la fiabilité de tels systèmes, notant : « Comment savez-vous que Poutine croit ce qu’il a dit ou écrit ?… cela est basé uniquement sur une hypothèse qui ne peut être testée. » Il a également exprimé son scepticisme quant à la pleine compréhension par ceux qui développent de tels outils de l’environnement décisionnel d’un président.
L’armée américaine explore déjà le rôle de l’IA dans les opérations nucléaires. L’année dernière, le général de l’armée de l’air Anthony J. Cotton, qui supervise les forces nucléaires américaines, a parlé de l’importance de l’adoption de l’IA, déclarant que les forces nucléaires « développent des outils d’aide à la décision basés sur l’intelligence artificielle ou l’IA, dirigés par l’homme, pour s’assurer que nos dirigeants sont capables de répondre à des scénarios complexes et urgents ».
La principale préoccupation de Wolfsthal n’est pas une IA défaillante qui déclencherait une guerre nucléaire, mais plutôt les vulnérabilités créées par l’automatisation de certaines parties du système de commandement et de contrôle nucléaire. Il craint qu’une telle automatisation ne puisse être exploitée par des adversaires ou produire des données et des recommandations que les humains seraient mal équipés pour comprendre, conduisant à des décisions désastreuses.
Le lancement d’une arme nucléaire est un processus très complexe impliquant des réseaux complexes de radars d’alerte précoce, de satellites et d’autres systèmes informatiques, tous surveillés par des humains. Par exemple, un lancement nucléaire américain nécessite de multiples actions humaines, y compris deux individus tournant simultanément des clés dans un silo. L’ensemble du processus est l’aboutissement de nombreuses décisions humaines.
La perspective que l’IA prenne en charge certaines parties de ce processus soulève des questions critiques. Que se passe-t-il lorsqu’une IA, et non un humain, surveille un radar d’alerte précoce ? La politique nucléaire américaine exige une « phénoménologie duale » pour confirmer une frappe nucléaire, ce qui signifie qu’une attaque doit être vérifiée à la fois par des systèmes satellitaires et radar. Wolfsthal soutient qu’à ce stade, l’IA ne peut pas servir de l’un de ces phénomènes de confirmation. Cela est en partie dû à la nature de « boîte noire » de nombreux systèmes d’IA, dont le fonctionnement interne n’est pas entièrement compris. Les experts conviennent généralement que l’intégration de tels systèmes dans la prise de décision nucléaire serait malavisée.
Latiff a également exprimé des inquiétudes quant aux systèmes d’IA renforçant le biais de confirmation. Il s’inquiète de la véritable signification du « contrôle humain » si l’IA influence fortement les décisions. « J’ai été commandant », a-t-il déclaré. « Je sais ce que signifie être responsable de mes décisions. Et vous en avez besoin… Si Johnny est tué, qui dois-je blâmer ? » Les systèmes d’IA, étant liés par leur programmation et leurs données d’entraînement, ne peuvent être tenus responsables des échecs et sont intrinsèquement limités dans leur capacité à « voir au-delà d’eux-mêmes ».
Hervé Lin a évoqué l’exemple critique de Stanislav Petrov, un lieutenant-colonel des Forces de défense aérienne soviétiques qui, en 1983, a ignoré une alerte machine indiquant un lancement de missile américain, évitant ainsi une guerre nucléaire potentielle. Le jugement de Petrov, basé sur son expérience et son intuition (par exemple, le petit nombre de missiles indiqués, la nouveauté du système informatique), a prévalu sur l’erreur apparente de la machine. Lin se demande si l’on peut s’attendre à ce que les humains prennent régulièrement de telles décisions critiques qui vont « au-delà de vos données d’entraînement », une capacité que l’IA, par définition, ne possède pas.
Pendant ce temps, le gouvernement américain a priorisé le développement de l’IA, le présentant souvent comme une nouvelle course aux armements. En mai, le Département de l’Énergie a proclamé sur X que « l’IA est le prochain Projet Manhattan, et les ÉTATS-UNIS GAGNERONT », comparant explicitement la poursuite de l’IA à une compétition avec la Chine. Lin a trouvé de telles métaphores « horribles », notant que le Projet Manhattan avait une métrique de succès claire et tangible (l’explosion d’une arme nucléaire), tandis que le succès d’un « Projet Manhattan de l’IA » reste indéfini.