DeepMind CEO: Konsistenz ist der AGI-Engpass der KI

Businessinsider

Der Weg zur Künstlichen Allgemeinen Intelligenz (AGI), einem Zustand, in dem Maschinen menschliche kognitive Fähigkeiten über ein breites Spektrum von Aufgaben hinweg replizieren können, steht vor einem kritischen Hindernis: der Konsistenz. Dies ist die jüngste Einschätzung von Demis Hassabis, CEO von Google DeepMind, der argumentiert, dass trotz beeindruckender Fortschritte ein grundlegender Fehler in den aktuellen KI-Modellen sie daran hindert, echte AGI zu erreichen.

Hassabis hob kürzlich hervor, dass die heute fortschrittlichsten KI-Systeme zwar hochkomplexe Herausforderungen meistern können, wie zum Beispiel den Gewinn von Mathematikwettbewerben auf Elite-Niveau, sie aber gleichzeitig an relativ einfachen Problemen auf Schulniveau scheitern können. Diese starke Leistungsdisparität in verschiedenen Domänen ist das, was Hassabis als entscheidenden Mangel an „Konsistenz“ identifiziert. Er weist darauf hin, dass eine Person derzeit innerhalb von Minuten erhebliche Schwächen oder „Löcher“ in fortgeschrittenen KI-Chatbots aufdecken kann, während eine wirklich allgemeine Intelligenz robust genug sein sollte, um der Expertenprüfung monatelang standzuhalten, bevor solche Fehler entdeckt werden.

Für Hassabis hängt die Definition von AGI von der Fähigkeit eines Systems ab, die gesamte Bandbreite menschlicher kognitiver Fähigkeiten zu zeigen und eine tiefgreifende Fähigkeit zur Generalisierung von Wissen und Fähigkeiten über disparate Domänen hinweg zu demonstrieren. Der menschliche Geist dient ihm als Maßstab, da er das einzige bekannte Beispiel allgemeiner Intelligenz im Universum ist. Aktueller KI, so argumentiert er, fehlen immer noch Schlüsselattribute wie robustes Denken, hierarchische Planung und Langzeitgedächtnis, die zu dieser weit verbreiteten Inkonsistenz beitragen. Darüber hinaus betont er die fehlende Fähigkeit von KI-Systemen, unabhängig neue wissenschaftliche Hypothesen oder Vermutungen zu generieren, anstatt lediglich bestehende zu beweisen.

Diese Inkonsistenz deutet darauf hin, dass moderne KI, obwohl sie in spezifischen, klar definierten Aufgaben unglaublich leistungsfähig ist, eher wie eine Sammlung hochspezialisierter Werkzeuge als wie eine einheitliche, anpassungsfähige Intelligenz funktioniert. Die Herausforderung besteht darin, KI in die Lage zu versetzen, Wissen nahtlos zu übertragen und ihr Verständnis an verschiedene Kontexte anzupassen, ähnlich wie ein menschlicher Arzt diagnostisches Denken anwenden könnte, um ein defektes Gerät zu beheben, obwohl ihm eine formale Ausbildung in der Gerätereparatur fehlt. Ohne diese inhärente Anpassungsfähigkeit und zuverlässige Leistung auf breiter Front werden KI-Systeme in ihrer Fähigkeit, die Komplexität der realen Welt wirklich zu verstehen und mit ihr zu interagieren, begrenzt bleiben.

Die Behebung dieses Konsistenzfehlers ist für den nächsten Sprung in der KI-Entwicklung von größter Bedeutung. Forscher streben danach, Systeme zu bauen, die aus kontinuierlichem Feedback lernen, ihr Verständnis verfeinern und „katastrophales Vergessen“ vermeiden können, bei dem neue Informationen alte Kenntnisse überschreiben. Das Ziel ist es, über bloße Mustererkennung hinauszugehen, um ein tieferes kausales Verständnis, gesunden Menschenverstand und Intuition zu erreichen – Fähigkeiten, die die menschliche Konsistenz und Anpassungsfähigkeit untermauern. Während der Weg zur AGI mit technischen, wirtschaftlichen und ethischen Herausforderungen behaftet ist, behält Hassabis einen relativ optimistischen Ausblick bei und schlägt eine 50%ige Chance vor, seine Definition von AGI innerhalb der nächsten fünf bis zehn Jahre zu erreichen. Die Überwindung der Konsistenzhürde wird ein entscheidender Moment sein, der eine Ära einläutet, in der KI ihre Intelligenz wirklich verallgemeinern und die komplexesten Probleme der Welt zuverlässig angehen kann.