KI & Atomwaffen: Fusion unvermeidlich, Folgen ungewiss

Wired

Nuklearexperten sind sich zunehmend sicher, dass künstliche Intelligenz (KI) bald in Atomwaffensysteme integriert wird, obwohl die genauen Auswirkungen dieser Entwicklung weitgehend undefiniert bleiben. Dieser Konsens entstand bei einem Treffen Mitte Juli an der University of Chicago, wo Nobelpreisträger mit führenden Wissenschaftlern, ehemaligen Regierungsbeamten und pensioniertem Militärpersonal, die auf Nuklearkrieg spezialisiert sind, zusammenkamen. Ziel der zweitägigen geschlossenen Sitzungen war es, diese einflussreichen Persönlichkeiten über die verheerendsten Waffen der Welt zu informieren und sie letztlich dabei zu leiten, politische Empfehlungen für globale Führungskräfte zur Abwendung eines Atomkonflikts zu formulieren.

KI war ein zentrales Diskussionsthema. Scott Sagan, ein Stanford-Professor, der für seine Forschung zur nuklearen Abrüstung bekannt ist, bemerkte während einer Pressekonferenz: „Wir treten in eine neue Welt ein, in der künstliche Intelligenz und neue Technologien unser tägliches Leben beeinflussen, aber auch die nukleare Welt, in der wir leben.“ Diese Aussage spiegelt eine weit verbreitete Überzeugung unter Experten wider, dass die Konvergenz von KI und Atomwaffen unvermeidlich ist. Bob Latiff, ein pensionierter Generalmajor der US Air Force und Mitglied des Wissenschafts- und Sicherheitsausschusses des Bulletin of the Atomic Scientists, verglich KI mit Elektrizität und erklärte: „Sie wird ihren Weg in alles finden.“ Latiff ist auch an der jährlichen Einstellung der Weltuntergangsuhr beteiligt.

Diskussionen über KI und Atomwaffen werden jedoch durch grundlegende Unklarheiten erschwert. Jon Wolfsthal, Experte für Nichtverbreitung und Direktor für globale Risiken bei der Federation of American Scientists, weist darauf hin: „Niemand weiß wirklich, was KI ist.“ Herb Lin, ein Stanford-Professor und „Weltuntergangsuhr“-Alumnus, pflichtete dieser Ansicht bei und fragte: „Was bedeutet es, KI die Kontrolle über eine Atomwaffe zu geben? Was bedeutet es, einem [Computerchip] die Kontrolle über eine Atomwaffe zu geben?“ Er fügte hinzu, dass die Debatte weitgehend durch die Dominanz großer Sprachmodelle (LLMs) geprägt wurde.

Trotz dieser Unsicherheiten besteht unter Nuklearexperten Einigkeit in einem entscheidenden Punkt: Niemand glaubt, dass konsumentenorientierte LLMs wie ChatGPT oder Grok in naher Zukunft Zugang zu nuklearen Startcodes erhalten werden. Wolfsthal bemerkte, dass Experten zwar unterschiedliche „theologische“ Ansichten zu nuklearen Angelegenheiten haben, sie jedoch in ihrer Forderung nach „effektiver menschlicher Kontrolle über die Entscheidungsfindung bei Atomwaffen“ vereint sind.

Dennoch bestehen weiterhin Bedenken hinsichtlich anderer potenzieller Anwendungen von LLMs in den höchsten Machtzentren. Wolfsthal berichtete, Vorschläge für interaktive Computersysteme gehört zu haben, die einem Präsidenten helfen könnten, die Handlungen von Gegnern wie Putin oder Xi vorherzusagen, indem sie deren frühere Aussagen und Schriften analysieren. Er hinterfragte die Zuverlässigkeit solcher Systeme und bemerkte: „Woher wissen Sie, dass Putin glaubt, was er gesagt oder geschrieben hat? … es basiert lediglich auf einer Annahme, die nicht getestet werden kann.“ Er äußerte auch Skepsis, dass diejenigen, die solche Tools entwickeln, das Entscheidungsfindungs-Umfeld eines Präsidenten vollständig erfassen.

Das US-Militär erforscht bereits die Rolle der KI in nuklearen Operationen. Letztes Jahr sprach Air Force General Anthony J. Cotton, der Amerikas Atomstreitkräfte überwacht, über die Bedeutung der KI-Einführung und erklärte, dass die Atomstreitkräfte „künstliche Intelligenz oder KI-gestützte, von Menschen geführte Entscheidungsunterstützungstools entwickeln, um sicherzustellen, dass unsere Führungskräfte auf komplexe, zeitkritische Szenarien reagieren können.“

Wolfsthals Hauptanliegen ist nicht eine abtrünnige KI, die einen Atomkrieg auslöst, sondern vielmehr die Schwachstellen, die durch die Automatisierung von Teilen des nuklearen Kommando- und Kontrollsystems entstehen. Er befürchtet, dass eine solche Automatisierung von Gegnern ausgenutzt werden könnte oder Daten und Empfehlungen produziert, die Menschen nur unzureichend verstehen können, was zu katastrophalen Entscheidungen führen würde.

Der Start einer Atomwaffe ist ein hochkomplexer Prozess, der komplizierte Netze von Frühwarnradaren, Satelliten und anderen Computersystemen umfasst, die alle von Menschen überwacht werden. Ein amerikanischer Atomstart erfordert beispielsweise mehrere menschliche Handlungen, einschließlich des gleichzeitigen Drehens von Schlüsseln durch zwei Personen in einem Silo. Der gesamte Prozess ist der Höhepunkt zahlreicher menschlicher Entscheidungen.

Die Aussicht, dass KI Teile dieses Prozesses übernimmt, wirft kritische Fragen auf. Was passiert, wenn eine KI, nicht ein Mensch, das Frühwarnradar überwacht? Die US-Nuklearpolitik erfordert eine „duale Phänomenologie“, um einen Atomschlag zu bestätigen, was bedeutet, dass ein Angriff sowohl durch Satelliten- als auch durch Radarsysteme verifiziert werden muss. Wolfsthal argumentiert, dass KI in diesem Stadium nicht als eines dieser bestätigenden Phänomene dienen kann. Dies liegt teilweise an der „Black Box“-Natur vieler KI-Systeme, deren interne Funktionsweise nicht vollständig verstanden wird. Experten sind sich im Allgemeinen einig, dass die Integration solcher Systeme in die nukleare Entscheidungsfindung unklug wäre.

Latiff äußerte auch Bedenken, dass KI-Systeme den Bestätigungsfehler verstärken könnten. Er sorgt sich um die wahre Bedeutung von „menschlicher Kontrolle“, wenn KI Entscheidungen stark beeinflusst. „Ich war Kommandant“, erklärte er. „Ich weiß, was es bedeutet, für meine Entscheidungen verantwortlich zu sein. Und das braucht man… Wenn Johnny getötet wird, wem gebe ich die Schuld?“ KI-Systeme, die an ihre Programmierung und Trainingsdaten gebunden sind, können nicht für Fehler verantwortlich gemacht werden und sind in ihrer Fähigkeit, „über den Tellerrand zu schauen“, von Natur aus begrenzt.

Herb Lin brachte das kritische Beispiel von Stanislaw Petrow an, einem Oberstleutnant der sowjetischen Luftverteidigungsstreitkräfte, der 1983 eine Maschinenwarnung ignorierte, die einen US-Raketenstart anzeigte, und dadurch einen potenziellen Atomkrieg abwendete. Petrows Urteilsvermögen, basierend auf seiner Erfahrung und Intuition (z. B. die geringe Anzahl der angezeigten Raketen, die Neuheit des Computersystems), setzte sich über den offensichtlichen Fehler der Maschine hinweg. Lin fragt, ob von Menschen routinemäßig erwartet werden kann, solche kritischen Urteile zu fällen, die „außerhalb Ihrer Trainingsdaten“ liegen – eine Fähigkeit, die KI per Definition fehlt.

Unterdessen hat die US-Regierung die KI-Entwicklung priorisiert und sie oft im Sinne eines neuen Wettrüstens dargestellt. Im Mai verkündete das Energieministerium auf X, dass „KI das nächste Manhattan-Projekt ist, und die VEREINIGTEN STAATEN WERDEN GEWINNEN“, wobei die Verfolgung von KI explizit mit einem Wettbewerb mit China verglichen wurde. Lin fand solche Metaphern „schrecklich“ und bemerkte, dass das Manhattan-Projekt eine klare, greifbare Erfolgsmetrik hatte (die Explosion einer Atomwaffe), während der Erfolg eines „KI-Manhattan-Projekts“ undefiniert bleibt.

KI & Atomwaffen: Fusion unvermeidlich, Folgen ungewiss - OmegaNext KI-Nachrichten