Agentische KI optimieren: „Silver Bullet“-Workflows für Geschwindigkeit & Genauigkeit

Datarobot

Der effektive Einsatz von KI-Agenten birgt oft ein Paradoxon: Was in einem Projekt hervorragend funktioniert, kann im nächsten scheitern oder unerschwinglich teuer werden. Die Herausforderung liegt in der inhärenten Variabilität realer Anwendungen; ein bestehender Workflow könnte die notwendige Kontextlänge vermissen, tieferes Denken erfordern oder einfach neue Latenzanforderungen nicht erfüllen. Selbst wenn ein älteres Setup funktionsfähig erscheint, kann es überentwickelt und somit für ein neues Problem überteuert sein, was darauf hindeutet, dass eine einfachere, schnellere Konfiguration alles sein könnte, was wirklich benötigt wird.

Dieses häufige Hindernis veranlasste Forscher bei DataRobot, eine grundlegende Frage zu untersuchen: Gibt es agentische KI-Workflows, die über eine Vielzahl von Anwendungsfällen hinweg konstant gut funktionieren und es Entwicklern ermöglichen, einen basierend auf ihren Prioritäten auszuwählen und die Bereitstellung zu beschleunigen? Ihre Ergebnisse deuten auf ein klares „Ja“ hin, und diese vielseitigen Konfigurationen wurden als „Silver Bullets“ bezeichnet.

Diese „Silver Bullet“-Workflows, die sowohl für niedrige Latenz als auch für hohe Genauigkeit identifiziert wurden, zeigen eine bemerkenswerte Konsistenz. In frühen Optimierungsphasen übertreffen sie konstant traditionelle Transfer-Learning-Ansätze und zufällige Initialisierung, während sie gleichzeitig die erheblichen Rechenkosten eines vollständigen, erschöpfenden Optimierungslaufs mit der syftr-Plattform umgehen. Entscheidend ist, dass diese „Silver Bullets“ etwa 75 % der Leistung eines vollständigen syftr-Optimierungslaufs wiederherstellen, jedoch zu einem Bruchteil der Kosten, was sie zu einem außergewöhnlich schnellen Ausgangspunkt macht, ohne das Potenzial für weitere, fein abgestimmte Verbesserungen zu negieren.

Das Verständnis des Konzepts einer Pareto-Front ist entscheidend, um zu erfassen, wie diese „Silver Bullets“ entdeckt wurden. Stellen Sie sich vor, Sie tragen die Leistung verschiedener KI-Agentenkonfigurationen auf, wobei eine Achse die Genauigkeit und eine andere die Latenz darstellt. Die Pareto-Front ist die Menge der optimalen Konfigurationen, bei denen es unmöglich ist, eine Metrik zu verbessern, ohne gleichzeitig die andere zu verschlechtern. Sie könnten beispielsweise eine Konfiguration wählen, die niedrige Latenz gegenüber absoluter maximaler Genauigkeit priorisiert, würden aber niemals einen „dominierten“ Fluss auswählen, da immer eine überlegene Option an der Front existiert.

Während ihrer Experimente nutzte DataRobot syftr, eine Multi-Ziel-Optimierungsplattform, die darauf ausgelegt ist, agentische Abläufe hinsichtlich Genauigkeit und Latenz zu verfeinern. Syftr automatisiert die Exploration zahlreicher Flusskonfigurationen anhand definierter Ziele und stützt sich dabei auf zwei Kerntechniken: die Multi-Ziel-Bayessche Optimierung für eine effiziente Navigation des riesigen Suchraums und ParetoPruner, der die Bewertung wahrscheinlich suboptimaler Flüsse intelligent frühzeitig stoppt, wodurch Zeit und Rechenressourcen gespart werden, während die effektivsten Konfigurationen dennoch zum Vorschein kommen.

Die Forschung umfasste einen mehrstufigen Prozess. Zunächst führte syftr Hunderte von Optimierungsversuchen an vier verschiedenen Trainingsdatensätzen durch: CRAG Task 3 Music, FinanceBench, HotpotQA und MultihopRAG. Für jeden Datensatz identifizierte syftr Pareto-optimale Flüsse und ermittelte die besten Kompromisse zwischen Genauigkeit und Latenz. Der entscheidende nächste Schritt bestand darin, die „Silver Bullets“ selbst zu identifizieren. Dies wurde erreicht, indem die Ergebnisse über alle Trainingsdatensätze hinweg normalisiert und dann identische Flüsse gruppiert wurden, um deren durchschnittliche Genauigkeit und Latenz zu berechnen. Aus diesem gemittelten Datensatz wurden die Flüsse ausgewählt, die die gesamte Pareto-Front bildeten, was zu 23 verschiedenen „Silver Bullet“-Konfigurationen führte, die über den gesamten Trainingsdatensatz hinweg konstant gut abschnitten.

Um ihre Wirksamkeit zu validieren, wurden diese „Silver Bullets“ dann gegen zwei andere Initialisierungsstrategien getestet: Transfer-Learning und zufällige Stichproben. Transfer-Learning in diesem Kontext umfasste die Auswahl leistungsstarker Flüsse aus historischen Studien und deren Bewertung auf neuen, ungesehenen Datensätzen. Für einen fairen Vergleich wurde jede Initialisierungsstrategie auf 23 anfängliche Flüsse begrenzt, passend zur Anzahl der identifizierten „Silver Bullets“.

Die abschließende Evaluierungsphase umfasste die Durchführung von etwa 1.000 Optimierungsversuchen an vier neuen, zurückgehaltenen Testdatensätzen: Bright Biology, DRDocs, InfiniteBench und PhantomWiki. Ein ausgeklügeltes KI-Modell, GPT-4o-mini, diente als Richter, der die Antworten des Agenten mit den Ground-Truth-Antworten abglich.

Die Ergebnisse demonstrierten unmissverständlich den sofortigen Vorteil der „Silver Bullet“-Initialisierung. Nach Abschluss der anfänglichen Initialisierungsversuche lieferten die „Silver Bullets“ durchweg überlegene Leistungen über die Testdatensätze hinweg. Im Durchschnitt erreichten sie eine um 9 % höhere maximale Genauigkeit, eine um 84 % geringere minimale Latenz und eine um 28 % größere Pareto-Fläche im Vergleich zu anderen Strategien. Zum Beispiel erreichten „Silver Bullets“ auf dem DRDocs-Datensatz nach der Initialisierung eine Pareto-Fläche von 88 %, was Transfer-Learning mit 71 % und zufällige Stichproben mit 62 % deutlich übertraf. Ähnlich benötigten andere Methoden auf InfiniteBench etwa 100 zusätzliche Versuche, um sich der von „Silver Bullets“ erreichten Pareto-Fläche überhaupt zu nähern, und hatten immer noch Schwierigkeiten, die schnellsten Flüsse zu erreichen, die über den „Silver Bullet“-Ansatz gefunden wurden.

Weitere Analysen ergaben, dass die 23 „Silver Bullet“-Flüsse im Durchschnitt etwa 75 % der endgültigen Pareto-Fläche ausmachten, selbst nach 1.000 Optimierungsversuchen. Während die Leistungserholung je nach Datensatz variierte – bis zu 92 % für Bright Biology, aber nur 46 % für PhantomWiki – war der allgemeine Trend klar.

Zusammenfassend lässt sich sagen, dass die Initialisierung von KI-Agenten-Optimierungen mit diesen „Silver Bullets“ durchweg starke Ergebnisse liefert und sogar komplexere Transfer-Learning-Methoden übertrifft. Während ein vollständiger Optimierungslauf letztendlich zu den wahren optimalen Flüssen konvergiert, bieten „Silver Bullets“ eine hoch effiziente und kostengünstige Möglichkeit, diese Leistung schnell zu approximieren. Sie dienen als außergewöhnlicher Ausgangspunkt, reduzieren erheblich den Zeit- und Kostenaufwand für die Suche nach leistungsfähigen agentischen Workflows, und ihr Einfluss könnte potenziell mit umfangreicheren Trainingsdaten und längeren Optimierungsläufen noch weiter wachsen.

Agentische KI optimieren: „Silver Bullet“-Workflows für Geschwindigkeit & Genauigkeit - OmegaNext KI-Nachrichten