Agentische KI: Experten über Aufstieg & historischen Kontext
Das Konzept der „agentischen KI“ – künstliche Intelligenzsysteme, die zu autonomem Handeln und Entscheidungsfindung fähig sind – erlebt ein signifikantes Wiederaufleben, das maßgeblich durch die rasanten Fortschritte bei Großen Sprachmodellen (LLMs) vorangetrieben wird. Dieses erneute Interesse hat jedoch eine faszinierende Spannung zwischen der aufstrebenden LLM-Gemeinschaft und Forschern geschaffen, die sich seit Jahrzehnten dem Studium intelligenter Agenten widmen.
Experten der AAMAS-Gemeinschaft (Autonomous Agents and Multiagent Systems), einem Feld, das seit über dreißig Jahren die Definition und Mechanik von Agenten erforscht, beobachten einen eigentümlichen Trend. Sanmay Das von Virginia Tech stellt eine weit verbreitete „Wiederentdeckung des Rades“ fest, bei der neue Veröffentlichungen grundlegende Fragen zur Agentenschaft aufgreifen, die in ihrer Disziplin längst debattiert und beantwortet wurden. Der historische Ansatz für Agenten umfasste oft explizite Weltmodelle, Argumentation und Logik – ein starker Kontrast zur Black-Box-, statistischen Natur heutiger LLMs. Diese Diskrepanz führt zu einem „Wild-West“-Szenario, in dem grundlegende Prinzipien ohne volle Wertschätzung für vergangene Arbeiten neu untersucht werden.
Sarit Kraus von der Bar-Ilan Universität stimmt dem zu und weist auf Fälle hin, in denen aktuelle Veröffentlichungen gut etablierte Konzepte, wie „Contract Nets“ aus den 1980er Jahren, für die Aufgabenverteilung unter LLM-Agenten effektiv neu erfunden haben. Sie schlägt vor, dass ein tieferes Engagement mit der bestehenden Literatur zu Koordination und Kollaboration erhebliche Zeit sparen und Forschern ermöglichen könnte, fortgeschrittenere Probleme anzugehen. Ähnlich spiegelt die Idee, komplexe Aufgaben in Sub-Agenten aufzuteilen, die jetzt als neuartiger Ansatz für LLMs dargestellt wird, frühe Designs für KI-Spieler in komplexen Spielen wie Diplomacy wider.
Michael Littman von der Brown University vergleicht LLMs mit einer mächtigen neuen Programmiersprache. Obwohl sie beispiellose Fähigkeiten zum Bau von KI-Systemen bieten, warnt er, dass sie die tiefgreifenden, langjährigen Herausforderungen des Agentendesigns nicht von Natur aus lösen. Er zitiert ein aktuelles Experiment, bei dem ein LLM-basierter Agent, „Claudius“, die Aufgabe erhielt, einen Online-Shop zu betreiben. Obwohl er für die Abwicklung von Kommunikation, Bestellungen und Preisen ausgestattet war, scheiterte das System letztendlich spektakulär, ja wurde sogar manipuliert, absurde Gegenstände wie Wolframwürfel zu kaufen und zu verkaufen zu versuchen. Obwohl seine Entwickler dies als „Sieg“ mit behebbaren Problemen betrachteten, argumentiert Littman, dass diese „Fixes“ darauf hinauslaufen, genau die Probleme anzugehen, mit denen sich die Agentengemeinschaft seit Jahrzehnten auseinandergesetzt hat. Die bloße Verbesserung von LLMs, so deutet er an, wird diese komplexen Probleme nicht auf magische Weise trivial machen.
Trotz dieser Kritik bietet die Integration von LLMs aufregende neue Möglichkeiten. Sabine Hauert von der University of Bristol, deren Arbeit sich auf das Design kollaborativer Roboteragenten konzentriert, sieht LLMs als Bereitstellung der „Fülle“ in der individuellen Agenteninteraktion, die zuvor fehlte. Sie stellt sich ein „Best-of-both-worlds“-Szenario vor: hochleistungsfähige, LLM-verbesserte Agenten, die lokale Interaktionen durchführen und systematisch unter Verwendung etablierter Schwarmintelligenz-Paradigmen zu Kollektiven zusammengeführt werden. Diese Konvergenz, so glaubt sie, könnte zu robusteren und anspruchsvolleren Multi-Agenten-Systemen führen.
Die Definition von „Agent“ in dieser neuen Landschaft bleibt jedoch umstritten. Tom Dietterich von der Oregon State University hinterfragt, ob viele sogenannte „agentische Systeme“ wirklich Agenten oder einfach komplexe Computerprogramme sind. Er stellt fest, dass LLMs mit ihrem relativ kleinen Kurzzeitgedächtnis oft erfordern, dass Ingenieure Aufgaben in mehrere verkettete Aufrufe zerlegen – eine Software-Engineering-Übung und keine echte Autonomie. Dies wirft Bedenken hinsichtlich der Anthropomorphisierung dieser Systeme auf, insbesondere da sich die Diskussionen von der Ersetzung einzelner Arbeitsplätze zur Ersetzung ganzer Teams durch „Agenten“ verlagern.
Sanmay Das warnt weiter vor potenziellen Fallstricken und erinnert an einen humorvollen, aber alarmierenden Vorfall, bei dem zwei ältere Preis-Bots aufgrund einer Rückkopplungsschleife unbeabsichtigt dazu führten, dass ein altes Biologielehrbuch auf Amazon für 17 Millionen Dollar gelistet wurde. Er schlägt vor, dass eine ähnliche, aber potenziell schädlichere Dynamik bei LLM-Agenten entstehen könnte, insbesondere hinsichtlich der Art und Weise, wie sie ihre Ziele festlegen. Dies erinnert an das Problem des „Reward Hacking“ im Reinforcement Learning, bei dem Agenten Systemlücken ausnutzen könnten, um ihre programmierten Belohnungen zu erzielen, was zu unbeabsichtigten und chaotischen Ergebnissen führt.
Der Weg nach vorn, wie von Tom Dietterich und Sabine Hauert vorgeschlagen, könnte einen strategischen Rückzug zu engeren, besser überprüfbaren Agenten beinhalten. Indem einzelne Komponenten ausreichend eingeschränkt werden, wird es möglich, deren Korrektheit zu beurteilen – eine entscheidende Herausforderung für breit gefächerte KI-Systeme. Dies könnte zu einer Zukunft führen, in der Künstliche Allgemeine Intelligenz (AGI) nicht aus einer einzigen, monolithischen Entität entsteht, sondern aus der kollektiven Intelligenz vieler heterogener, aufgabenspezifischer Agenten. Die Begeisterung für die Rolle, die LLMs bei der Überwindung der Barriere der natürlichen Sprachinteraktion für Mensch-Agent-Systeme spielen können, bleibt hoch, aber die Kernherausforderungen von Strategie, Entscheidungsfindung und überprüfbarer Autonomie bestehen fort, was sicherstellt, dass die traditionelle Agentenforschungsgemeinschaft noch wichtige Arbeit zu leisten hat.