Google integriert KI-Agenten in Kernplattformen für Daten & Dev

Datanami

Die Landschaft der Unternehmenstechnologie durchläuft eine tiefgreifende Transformation, angetrieben durch das Aufkommen der „agentischen KI“. Weit davon entfernt, bloße theoretische Konzepte oder experimentelle Prototypen zu sein, übernehmen diese intelligenten KI-Agenten zunehmend greifbare operative Rollen in Produktionsumgebungen. Von der Orchestrierung komplexer Datenpipelines bis zur Codegenerierung und Interpretation komplexer Geschäftslogik definieren diese autonomen Systeme Arbeitsabläufe neu und veranlassen Tech-Giganten wie Google, die grundlegende Infrastruktur für dieses aufstrebende Feld schnell aufzubauen.

Googles jüngster Vorstoß in diesem Bereich wurde auf dem Cloud Next Tokyo Event enthüllt, wo das Unternehmen eine umfassende Suite von KI-Agenten und bedeutende Infrastrukturverbesserungen vorstellte. Diese neuen Funktionen sollen Dateningenieure, Wissenschaftler, Analysten und Entwickler gleichermaßen befähigen. Anstatt eigenständige Tools oder völlig neue Schnittstellen zu präsentieren, hat Google diese Vorabversionen nahtlos direkt in seine Kernplattformen integriert, darunter BigQuery, Vertex AI und GitHub. Diese strategische Integration wird durch Updates gestärkt, die Vektorsuche und Large Language Model Reasoning direkt in Googles Datendienste einbetten, um sofortigen Nutzen zu gewährleisten, ohne bestehende Arbeitsabläufe zu stören. Während einige dieser neuen KI-Agenten diskret im Hintergrund agieren, engagieren sich andere direkter, doch alle verfolgen ein einziges Ziel: die drastische Reduzierung der Zeit, die für repetitive Aufgaben aufgewendet wird.

Im Bereich der Softwareentwicklung sticht das Gemini CLI hervor, das robuste Unterstützung für Teams bietet, die in GitHub arbeiten. Es rationalisiert kritische Prozesse wie Pull-Request-Reviews, Issue-Triage und die Bearbeitung kleinerer Codierungsaufgaben, die über Kommentare kanalisiert werden. Eine einfache Erwähnung in einem Issue genügt, damit Gemini CLI mit vorgeschlagenem Code, begleitenden Tests und einem Entwurf einer Änderung zur Überprüfung zurückkehrt. Ergänzend zu diesem Agenten veröffentlicht Google auch Open-Source-Workflows, die entwickelt wurden, um gängige Aufgaben wie das Beschriften oder Sortieren eingehender Issues zu automatisieren. Diese scheinbar geringfügige Verschiebung verspricht, Teams erheblich davor zu bewahren, durch sich anhäufende Rückstände überfordert zu werden.

Für Dateningenieure hat Google den Data Engineering Agent innerhalb von BigQuery eingeführt, ein Tool, das darauf ausgelegt ist, die manuelle Pipeline-Einrichtung zu eliminieren. Anstatt SQL-Abfragen von Grund auf neu zu erstellen oder zwischen mehreren Schnittstellen zu navigieren, können Benutzer ihre Anforderungen einfach in natürlicher Sprache beschreiben – zum Beispiel: „Laden Sie eine CSV-Datei, bereinigen Sie bestimmte Spalten und verbinden Sie sie mit einer anderen Tabelle.“ Der Agent verwaltet dann den gesamten Workflow autonom von der Initiierung bis zum Abschluss. Google betont, dass diese Innovation nicht dazu gedacht ist, Ingenieure zu verdrängen, sondern die repetitivsten und zeitaufwändigsten Aspekte ihrer Arbeit zu beschleunigen. Die Ausgabe des Agenten bleibt vollständig editierbar, wodurch sichergestellt wird, dass Ingenieure die volle Kontrolle behalten, was es Teams ermöglicht, schneller voranzukommen, insbesondere beim Umgang mit großen Mengen komplexer oder fragmentierter Daten.

Dieses Beschleunigungsprinzip erstreckt sich nahtlos auf die Datenwissenschaft mit der Einführung eines neuen Data Science Agent, der in Colab Enterprise integriert ist. Dieser Agent wurde entwickelt, um den gesamten Lebenszyklus der explorativen Analyse und Modellierung zu unterstützen, und verbindet sich direkt mit BigQuery und Vertex AI. Er reagiert auf natürliche Sprachaufforderungen für verschiedene Aufgaben, einschließlich Datenprofilierung, Feature-Generierung und der Ausführung von Machine-Learning-Modellen. Was diesen Agenten wirklich auszeichnet, ist seine Fähigkeit, jeden Schritt als Teil eines kontinuierlichen Workflows zu verfolgen. Google behauptet, dass er innerhalb einer einzigen Sitzung planen, ausführen, begründen und Ergebnisse präsentieren kann, sodass Teams die Ergebnisse überprüfen, verfeinern und steuern können, ohne an Dynamik zu verlieren. Wie bei seinen anderen Agenten bekräftigt Google, dass das Ziel nicht darin besteht, Datenwissenschaftler zu ersetzen, sondern ihren Prozess während der anfänglichen, oft repetitiven Phasen der Experimente erheblich zu beschleunigen.

Für Geschäftsanalysten verbessert Google seinen Conversational Analytics Agent mit einem neuen Code Interpreter. Dieses leistungsstarke Tool übersetzt natürliche Sprachaufforderungen in ausführbaren Python-Code, führt die angeforderte Analyse durch und präsentiert dann sowohl die Ergebnisse als auch die entsprechenden Visualisierungen. Es wurde speziell entwickelt, um komplexe Fragen zu lösen, die über einfache SQL-Abfragen hinausgehen, wie z. B. Kundensegmentierung oder Prognosen. Googles Ziel hier ist es, Teams zu befähigen, von vagen Fragen zu strukturierten Erkenntnissen überzugehen, ohne selbst Code schreiben oder verwalten zu müssen.

Die Grundlage dieser neuen Agentenfunktionen bilden umfangreiche Infrastruktur-Upgrades in Googles Daten-Stack. Spanner verfügt jetzt über eine spaltenorientierte Engine, die für analytische Workloads optimiert ist und bei bestimmten Abfragen Leistungssteigerungen von bis zu 200 Mal liefert. BigQuery erhält durch eine neue Funktion namens Data Boost einen verbesserten Zugriff auf Live-Transaktionsdaten. Darüber hinaus bettet Google Vektorsuche und Retrieval-Augmented Generation (RAG) direkt in seine Plattform ein, wodurch Agenten ein persistenter Speicher zur Verfügung gestellt wird, der fest in echten Unternehmensdaten verankert ist.

„Die Art und Weise, wie wir mit Daten interagieren, erfährt eine grundlegende Transformation, die über die von Menschen geführte Analyse hinausgeht und zu einer kollaborativen Partnerschaft mit intelligenten Agenten wird“, erklärte Yasmeen Ahmad, Managing Director für Googles Cloud Data Business, in einem Blogbeitrag zur Ankündigung der Einführung. Sie beschrieb dies als den „agentischen Wandel“, der eine neue Ära einläutet, in der spezialisierte KI-Agenten autonom und kooperativ agieren, um Erkenntnisse in zuvor unvorstellbaren Größenordnungen und Geschwindigkeiten zu gewinnen.

Über die Agenten selbst hinaus legt Google aktiv den Grundstein für eine breitere Akzeptanz. Die neue Gemini Data Agents API, die zunächst als Conversational Analytics API eingeführt wird, ermöglicht es Entwicklern, Googles agentische Funktionen direkt in ihre eigenen Tools und Workflows einzubetten. Daneben werden die Data Agents API und das Agent Development Kit (ADK) Teams befähigen, benutzerdefinierte Agenten von Grund auf neu zu erstellen, die auf ihre einzigartige interne Logik und Geschäftsanforderungen zugeschnitten sind. Diese Tools verwandeln das agentische Modell von etwas, das Teams einfach nutzen, in etwas, das sie aktiv gestalten können. Um sicherzustellen, dass diese Agenten innerhalb definierter Grenzen arbeiten, führt Google auch das Model Context Protocol (MCP) und den Looker MCP Server ein, die gewährleisten, dass Agenten, die mit strukturierten Daten arbeiten, den richtigen Kontext, Berechtigungen und Definitionen einhalten.

Die Einführung dieser Agenten und unterstützenden Tools unterstreicht Googles grundlegendes Umdenken darüber, wie Menschen mit Daten interagieren. Das übergeordnete Ziel ist es nicht, bestehende Arbeitsabläufe zu ersetzen, sondern sie von Natur aus schneller, leichter und fokussierter zu machen. Dieser strategische Wandel verspricht, die Zeit, die Teams für die Einrichtung und alltägliche Aufgaben aufwenden, erheblich zu reduzieren, sodass sie mehr Energie für die Lösung echter Geschäftsprobleme aufwenden können.