KI-Selbstverbesserung: Metas Ziel, Risiken und die Zukunft
Mark Zuckerberg hat kürzlich eine kühne Vision für Meta skizziert: künstliche Intelligenz zu erreichen, die den menschlichen Intellekt übertrifft. Seine Strategie basiert auf zwei entscheidenden Elementen: der Anziehung von Top-Talenten, Berichten zufolge mit neunstelligen Angeboten für Forscher in den Meta Superintelligence Labs, und, entscheidend, der Entwicklung selbstverbessernder KI-Systeme, die sich selbst auf immer höhere Leistungsniveaus hochfahren können.
Das Konzept der KI-Selbstverbesserung hebt sie von anderen bahnbrechenden Technologien ab. Anders als CRISPR, das seine eigene DNA-Zielsetzung nicht verfeinern kann, oder Fusionsreaktoren, die keine unabhängigen Wege zur kommerziellen Rentabilität entwickeln können, zeigen große Sprachmodelle (LLMs) die Fähigkeit, die Computerchips, auf denen sie laufen, zu optimieren, andere LLMs effizient zu trainieren und sogar neuartige Ideen für die KI-Forschung zu generieren. Tatsächlich sind Fortschritte in diesen Bereichen bereits erkennbar.
Zuckerberg stellt sich eine Zukunft vor, in der solche Fortschritte die Menschheit von banalen Aufgaben befreien und es Individuen ermöglichen, ihre höchsten Ziele an der Seite brillanter, höchst effektiver künstlicher Begleiter zu verfolgen. Diese Selbstverbesserung birgt jedoch auch inhärente Risiken, wie Chris Painter, Policy Director der KI-Forschungs-Non-Profit-Organisation METR, hervorhebt. Sollte KI ihre Fähigkeiten schnell beschleunigen, warnt Painter, könnte sie schnell geschickter im Hacken, im Entwerfen von Waffen und im Manipulieren von Menschen werden. Einige Forscher postulieren sogar, dass dieser positive Rückkopplungskreislauf in einer “Intelligenzexplosion” gipfeln könnte, die KI weit über das menschliche Verständnis hinaus treibt. Doch man muss keine pessimistische Haltung einnehmen, um die ernsthaften Auswirkungen selbstverbessernder KI anzuerkennen. Führende KI-Entwickler wie OpenAI, Anthropic und Google integrieren alle automatisierte KI-Forschung in ihre Sicherheitsrahmenwerke und kategorisieren sie neben bekannteren Risiken wie chemischen Waffen und Cybersicherheit. Jeff Clune, Professor für Informatik an der University of British Columbia und Senior Research Advisor bei Google DeepMind, betont, dass dieser Weg die “schnellste Route zu leistungsstarker KI” darstellt und wohl “das Wichtigste ist, worüber wir nachdenken sollten”. Umgekehrt weist Clune auch auf die immensen potenziellen Vorteile hin: Menschlicher Erfindungsreichtum allein könnte die Innovationen, die KI benötigt, um schließlich monumentale Herausforderungen wie Krebs und Klimawandel anzugehen, möglicherweise nicht hervorbringen.
Vorläufig bleibt der menschliche Erfindungsreichtum der Hauptantrieb für den Fortschritt der KI, wie Metas erhebliche Investitionen in die Anwerbung von Forschern belegen. Dennoch trägt KI auf verschiedene wichtige Weisen zunehmend zu ihrer eigenen Evolution bei.
Einer der unmittelbarsten und weit verbreitetsten Beiträge von LLMs zur KI-Entwicklung ist die Steigerung der Produktivität, insbesondere durch Code-Assistenz. Tools wie Claude Code und Cursor werden in der gesamten KI-Branche weit verbreitet eingesetzt. Google-CEO Sundar Pichai stellte im Oktober 2024 fest, dass ein Viertel des neuen Codes des Unternehmens von KI generiert wurde, und Anthropic hat die umfangreiche interne Nutzung von Claude Code durch seine Mitarbeiter dokumentiert. Die Prämisse ist einfach: Produktivere Ingenieure können neue KI-Systeme schneller entwerfen, testen und bereitstellen. Der tatsächliche Produktivitätsgewinn bleibt jedoch umstritten. Eine aktuelle METR-Studie ergab, dass erfahrene Entwickler, die an großen Codebasen arbeiteten, etwa 20 % länger brauchten, um Aufgaben zu erledigen, wenn sie KI-Code-Assistenten verwendeten, obwohl sie sich subjektiv effizienter fühlten. Dies deutet auf die Notwendigkeit einer strengeren Evaluierung in führenden KI-Laboren hin, um die tatsächlichen Vorteile zu ermitteln.
Über die Steigerung der Produktivität hinaus erweist sich KI als entscheidend für die Optimierung ihrer eigenen zugrunde liegenden Infrastruktur. Das Training von LLMs ist notorisch langsam, wobei komplexe Reasoning-Modelle manchmal Minuten benötigen, um eine einzige Antwort zu generieren – ein erheblicher Engpass für die Entwicklung. Azalia Mirhoseini, Assistenzprofessorin für Informatik an der Stanford University und Senior Staff Scientist bei Google DeepMind, erklärt: “Wenn wir KI schneller laufen lassen können, können wir mehr innovieren.” Zu diesem Zweck entwickelten Mirhoseini und ihre Google-Mitarbeiter im Jahr 2021 ein KI-System, das die Platzierung von Computerchip-Komponenten zur Effizienzoptimierung fähig ist, ein Design, das Google seitdem in mehreren Generationen seiner kundenspezifischen KI-Chips integriert hat. In jüngerer Zeit hat Mirhoseini LLMs auf das Schreiben von “Kernels” angewendet, Low-Level-Funktionen, die Chip-Operationen wie die Matrixmultiplikation steuern, und festgestellt, dass selbst Allzweck-LLMs Kernels generieren können, die menschlich entworfene Versionen übertreffen. Anderswo bei Google nutzt das AlphaEvolve-System das Gemini LLM, um iterativ Algorithmen zur Optimierung verschiedener Teile der Google LLM-Infrastruktur zu entwickeln und zu verfeinern. Dieses System hat greifbare Ergebnisse geliefert, darunter eine Einsparung von 0,7 % der Google-Rechenressourcen für Rechenzentren, Verbesserungen an kundenspezifischen Chip-Designs und eine Beschleunigung der Gemini-Trainingszeit um 1 %. Obwohl scheinbar geringfügig, bedeuten diese Prozentsätze für ein Unternehmen von Googles Größe erhebliche Einsparungen an Zeit, Geld und Energie, mit Potenzial für noch größere Gewinne, wenn sie breiter angewendet werden.
Ein weiterer kritischer Bereich der KI-Selbstverbesserung liegt in der Automatisierung des Trainingsprozesses. LLMs benötigen riesige Datenmengen, was das Training in jeder Phase kostspielig macht. In spezialisierten Domänen können reale Daten knapp sein. Techniken wie das Reinforcement Learning mit menschlichem Feedback, bei dem Menschen LLM-Antworten bewerten, um Modelle zu verfeinern, sind effektiv, aber langsam und teuer. LLMs überbrücken diese Lücken zunehmend. Bei ausreichenden Beispielen können sie plausible synthetische Daten für Domänen generieren, in denen reale Daten fehlen. Sie können auch als “Richter” im Reinforcement Learning fungieren und Modellausgaben selbst bewerten – ein Kernprinzip von Anthropics einflussreichem “Constitutional AI”-Framework, bei dem ein LLM hilft, ein anderes zu trainieren, um weniger schädlich zu sein. Für KI-Agenten, die mehrstufige Pläne ausführen müssen, sind Beispiele für erfolgreiche Aufgabenerledigung selten. Mirhoseini und ihre Stanford-Kollegen haben eine Technik entwickelt, bei der ein LLM-Agent einen Schritt-für-Schritt-Plan generiert, ein LLM-Richter die Gültigkeit jedes Schritts bewertet und dann ein neuer LLM-Agent auf diesen verfeinerten Schritten trainiert wird. Dieser Ansatz beseitigt effektiv Datenbeschränkungen und ermöglicht es Modellen, praktisch unbegrenzte Trainingserfahrungen zu generieren.
Darüber hinaus, während die Kernarchitektur der heutigen LLMs – der Transformer, der 2017 von menschlichen Forschern vorgeschlagen wurde – weiterhin von Menschen entworfen wird, hat das Aufkommen von LLM-Agenten eine völlig neue Designgrenze eröffnet. Agenten benötigen Werkzeuge, um mit der Außenwelt zu interagieren, und Anweisungen zu deren Verwendung, wodurch die Optimierung dieser Elemente für die Effektivität entscheidend wird. Clune bemerkt, dass dieser Bereich “niedrig hängende Früchte” für die KI bietet, da die Menschen noch nicht alle Möglichkeiten erschöpfend erforscht haben. In Zusammenarbeit mit Forschern von Sakana AI entwickelte Clune die “Darwin Gödel Machine”, einen LLM-Agenten, der in der Lage ist, seine eigenen Prompts, Tools und Code iterativ zu modifizieren, um seine Aufgabenleistung zu verbessern. Dieses System verbesserte nicht nur seine Ergebnisse durch Selbstmodifikation, sondern entdeckte auch neuartige Modifikationen, die seine ursprüngliche Version nicht hätte konzipieren können, und trat so in einen echten Selbstverbesserungszyklus ein.
Schließlich beinhaltet die vielleicht ehrgeizigste Form der KI-Selbstverbesserung die Weiterentwicklung der KI-Forschung selbst. Viele Experten heben den “Forschungsgeschmack” – die Fähigkeit von Top-Wissenschaftlern, vielversprechende neue Fragen und Richtungen zu identifizieren – als eine einzigartige Herausforderung für KI hervor. Clune glaubt jedoch, dass diese Herausforderung überbewertet werden könnte. Er und Forscher von Sakana AI entwickeln ein End-to-End-System namens “AI Scientist”. Dieses System durchsucht autonom wissenschaftliche Literatur, formuliert eigene Forschungsfragen, führt Experimente durch und verfasst seine Erkenntnisse. Eine Arbeit, die es Anfang dieses Jahres verfasste und eine neue Strategie zum Training neuronaler Netze detaillierte, wurde anonym bei einem Workshop der International Conference on Machine Learning (ICML) eingereicht und von Gutachtern angenommen, obwohl die Strategie letztendlich nicht funktionierte. In einem anderen Fall konzipierte der KI-Wissenschaftler eine Forschungsidee, die später unabhängig von einem menschlichen Forscher vorgeschlagen wurde und großes Interesse hervorrief. Clune vergleicht diesen Moment mit dem “GPT-1-Moment des KI-Wissenschaftlers” und prognostiziert, dass er innerhalb weniger Jahre Artikel in Top-Peer-Review-Konferenzen und -Zeitschriften veröffentlichen und originelle wissenschaftliche Entdeckungen machen wird.
Angesichts dieser Begeisterung für die KI-Selbstverbesserung scheint es wahrscheinlich, dass die Beiträge der KI zu ihrer eigenen Entwicklung nur noch zunehmen werden. Mark Zuckerbergs Vision deutet darauf hin, dass superintelligente Modelle, die menschliche Fähigkeiten in vielen Domänen übertreffen, unmittelbar bevorstehen. In Wirklichkeit bleibt der volle Einfluss selbstverbessernder KI jedoch unsicher. Während Googles AlphaEvolve das Training von Gemini um 1 % beschleunigt hat, ist dieser Rückkopplungskreislauf laut Matej Balog, dem Projektleiter, immer noch “sehr langsam”. Das Training eines Modells wie Gemini nimmt eine beträchtliche Zeit in Anspruch, was bedeutet, dass der “Tugendkreis” gerade erst beginnt.
Befürworter der Superintelligenz argumentieren, dass, wenn jede nachfolgende Version von Gemini ihr eigenes Training weiter beschleunigt, sich diese Verbesserungen summieren und leistungsfähigere Generationen noch größere Beschleunigungen erzielen werden, was unweigerlich zu einer Intelligenzexplosion führt. Diese Perspektive übersieht jedoch oft das Prinzip, dass Innovation im Laufe der Zeit tendenziell schwieriger wird. Am Anfang eines jeden wissenschaftlichen Feldes sind Entdeckungen leicht zu erzielen. Aber mit der Reifung des Deep Learnings könnte jede inkrementelle Verbesserung wesentlich mehr Aufwand sowohl von Menschen als auch von ihren KI-Kollaboratoren erfordern. Es ist denkbar, dass die einfachsten Fortschritte bereits erzielt wurden, wenn KI-Systeme menschliche Forschungsfähigkeiten erreichen.
Die Bestimmung der realen Auswirkungen der KI-Selbstverbesserung ist daher eine gewaltige Herausforderung, die dadurch erschwert wird, dass die fortschrittlichsten KI-Systeme typischerweise Eigentum von führenden KI-Unternehmen sind, was eine externe Messung erschwert. Dennoch unternehmen externe Forscher Anstrengungen. METR verfolgt beispielsweise das allgemeine Tempo der KI-Entwicklung, indem es misst, wie lange Menschen brauchen, um Aufgaben zu erledigen, die modernste KI-Systeme eigenständig ausführen können. Ihre Ergebnisse sind frappierend: Seit der Veröffentlichung von GPT-2 im Jahr 2019 hat sich die Komplexität der Aufgaben, die KI eigenständig erledigen kann, alle sieben Monate verdoppelt. Seit 2024 hat sich diese Verdopplungszeit auf nur vier Monate verkürzt, was stark auf eine Beschleunigung des KI-Fortschritts hindeutet. Während Faktoren wie erhöhte Investitionen in Forscher und Hardware dazu beitragen, ist es durchaus plausibel, dass die KI-Selbstverbesserung ebenfalls eine bedeutende Rolle spielt. Tom Davidson, der Forethought-Forscher, erwartet eine Phase beschleunigten KI-Fortschritts, zumindest für eine gewisse Zeit. Die Arbeit von METR deutet darauf hin, dass der “Low-Hanging-Fruit”-Effekt derzeit menschliche Forscher nicht behindert, oder dass erhöhte Investitionen eine Verlangsamung effektiv ausgleichen. Wenn KI die Produktivität der Forscher merklich steigert oder sogar einen Teil der Forschung selbst übernimmt, wird sich dieses Gleichgewicht unbestreitbar in Richtung beschleunigten Fortschritts verschieben. Die entscheidende Frage, so Davidson, ist “wie lange das anhält”.