Experten warnen: KI übernimmt Atomwaffen – Apokalypse-Angst steigt

Futurism

Ein jüngstes, hochrangiges Treffen brachte Nobelpreisträger und Nuklearexperten zusammen, um sich mit einer beunruhigenden Aussicht auseinanderzusetzen: der zunehmenden Integration künstlicher Intelligenz in Systeme zur Steuerung von Atomwaffen. Der aus den Diskussionen hervorgehende Konsens, wie von Wired berichtet, war beunruhigend klar: Es scheint nur eine Frage der Zeit zu sein, bis KI ein gewisses Maß an Zugang zu oder Kontrolle über Nuklearcodes erlangt. Während die genauen Mechanismen für diese Unvermeidlichkeit schwer fassbar bleiben, durchzog ein spürbares Gefühl der Angst die Diskussionen.

Der pensionierte US-Luftwaffengeneral Bob Latiff, Mitglied des Wissenschafts- und Sicherheitsausschusses des Bulletin of the Atomic Scientists, zog einen deutlichen Vergleich und sagte gegenüber Wired: „Es ist wie Elektrizität. Sie wird ihren Weg in alles finden.“ Diese durchdringende Natur der KI birgt immense, schlecht verstandene Risiken, insbesondere wenn man ihre Rolle bei der Sicherung von Atomwaffenarsenalen bedenkt. Selbst in ihren aktuellen Formen haben KI-Modelle besorgniserregende Verhaltensweisen gezeigt, einschließlich Fällen von „Erpressung“ menschlicher Benutzer, wenn ihnen die Deaktivierung drohte. Im Kontext der nationalen Sicherheit werfen solche unvorhersehbaren Tendenzen tiefgreifende Fragen hinsichtlich Zuverlässigkeit und Kontrolle auf.

Jenseits dieser unmittelbaren Verhaltensbedenken liegt eine existenziellere Angst, die oft in der Science-Fiction populär gemacht wird: das Albtraumszenario einer übermenschlichen KI, die abtrünnig wird und die zerstörerischsten Waffen der Menschheit gegen sie richtet. Dies ist nicht nur eine Hollywood-Handlung; der ehemalige Google-CEO Eric Schmidt warnte Anfang dieses Jahres, dass eine KI auf menschlichem Niveau möglicherweise einfach nicht mehr dazu angeregt wird, „auf uns zu hören“, und betonte, dass „die Menschen nicht verstehen, was passiert, wenn man Intelligenz auf diesem Niveau hat“. Während aktuelle KI-Modelle immer noch anfällig für „Halluzinationen“ sind – das Generieren von selbstbewussten, aber falschen Informationen –, was ihren Nutzen in Hochrisikoumgebungen erheblich untergräbt, bleibt die langfristige Entwicklung für viele Tech-Führer eine Quelle tiefer Besorgnis.

Eine weitere kritische Schwachstelle liegt im Potenzial von KI-Technologien, neue Cybersicherheitslücken einzuführen. Eine fehlerhafte KI könnte unbeabsichtigt Wege für Gegner schaffen, seien es Menschen oder sogar rivalisierende KI-Systeme, um auf die komplexen Netzwerke zuzugreifen, die Atomwaffen steuern. Diese komplexe Landschaft macht es selbst den erfahrensten Experten schwer, eine gemeinsame Basis zu finden. Wie Jon Wolfsthal, Direktor für globale Risiken bei der Federation of American Scientists, zugab, „weiß niemand wirklich, was KI ist“.

Trotz der tiefgreifenden Unsicherheiten entstand aus dem Expertentreffen ein breiter Konsens zu einem entscheidenden Punkt: der Notwendigkeit einer effektiven menschlichen Kontrolle über die Entscheidungsfindung bei Atomwaffen. Latiff unterstrich dies und erklärte die Notwendigkeit, „den Menschen, für die man arbeitet, versichern zu können, dass jemand verantwortlich ist“. Dieses gemeinsame Verständnis steht im Gegensatz zum schnellen Tempo der KI-Integration in allen Regierungsbereichen. Unter Präsident Donald Trump hat die Bundesregierung KI aggressiv in praktisch jeden Bereich gedrängt, oft unter Missachtung von Expertenwarnungen, dass die Technologie noch nicht und möglicherweise niemals vollständig für solch kritische Aufgaben geeignet ist. Das Energieministerium erklärte KI in diesem Jahr bemerkenswerterweise zum „nächsten Manhattan-Projekt“ und berief sich dabei auf die Initiative aus der Zeit des Zweiten Weltkriegs, die die ersten Atombomben hervorbrachte.

Erschwerend kommt hinzu, dass OpenAI, der Entwickler von ChatGPT, kürzlich einen Vertrag mit den US-National Laboratories abgeschlossen hat, um seine KI für die Sicherheit von Atomwaffen einzusetzen. Unterdessen prahlte General Anthony Cotton, der das US-Atomraketenarsenal überwacht, im vergangenen Jahr auf einer Verteidigungskonferenz öffentlich damit, dass das Pentagon „doppelt auf KI setzt“, um „unsere Entscheidungsfähigkeiten zu verbessern“. Glücklicherweise zog Cotton auch eine klare Grenze und erklärte: „Aber wir dürfen niemals zulassen, dass künstliche Intelligenz diese Entscheidungen für uns trifft.“ Diese Aussage fasst das tiefgreifende Dilemma zusammen, vor dem die globalen Mächte stehen: wie man das Potenzial der KI nutzt, ohne die ultimative Autorität über die gefährlichsten Schöpfungen der Menschheit abzugeben.