Google BigQuery wird smarter: KI-Agenten für automatisierte Analysen
Google hat eine Reihe bedeutender Verbesserungen an seinem verwalteten BigQuery-Data-Warehouse-Dienst vorgestellt, die darauf abzielen, komplexe Datenanalyseaufgaben für Unternehmensdatenexperten weiter zu automatisieren. Diese Updates bauen auf den Daten-Engineering- und Data-Science-Agenten auf, die der Hyperscaler ursprünglich im April auf seinem jährlichen Google Cloud Next Event angekündigt hatte.
Der Daten-Engineering-Agent, der sich zuvor auf die grundlegende Datenvorbereitung konzentrierte, hat sich zu einer umfassenden End-to-End-Funktion entwickelt. Laut Yasmeen Ahmad, Produktmanagerin für Daten und KI bei Google Cloud, umfasst der Agent nun den Pipeline-Aufbau, die Datentransformation und die Fehlerbehebung. Er kann natürliche Sprachbefehle interpretieren, während er Datenschemata versteht, aus vorhandenen Metadaten lernt und Beziehungen zwischen verschiedenen Datenbeständen erkennt. Dies ermöglicht es Datenexperten, während des gesamten Lebenszyklus der Datenpipeline mit dem Agenten zu interagieren und Aufgaben wie das Generieren neuer Pipelines, das Ändern bestehender Pipelines oder sogar die Fehlerbehebung durch Analyse von Code und Protokollen zur Lokalisierung und Vorschlag von Korrekturen anzufordern.
Ähnlich ist der Data-Science-Agent, der ursprünglich über Googles kostenlosen, cloudbasierten Jupyter-Notebook-Dienst Colab zur Automatisierung des Feature-Engineerings zugänglich war, nun nahtlos in BigQuery Notebook integriert. Diese Integration verbessert die Fähigkeit des Agenten erheblich, automatisierte End-to-End-Data-Science-Workflows zu unterstützen. Er kann nun mehrstufige Pläne erstellen, Code generieren und ausführen, die Ergebnisse bewerten und Erkenntnisse präsentieren, wodurch der gesamte Data-Science-Prozess rationalisiert wird.
Eine bemerkenswerte Ergänzung ist die Einführung autonomer Vektor-Embeddings und -Generierung innerhalb von BigQuery, die Unternehmen dabei helfen soll, multimodale Daten für die Vektorsuche automatisch vorzubereiten und zu indizieren. Ahmad stellte klar, dass “autonom” sich auf die Automatisierung des oft komplexen und undifferenzierten “Heavy Lifting” bezieht, das im Daten-Engineering und MLOps anfällt. Traditionell extrahierten Data-Science-Teams Daten manuell, richteten Rechenressourcen ein, verarbeiteten Daten für API-Aufrufe und bauten und optimierten dann Vektorindizes. Diese neue Funktion soll diese Teams entlasten, damit sie sich auf höherwertige Aktivitäten konzentrieren können, wie die Auswahl optimaler Modelle und die Validierung ihrer Wirksamkeit anhand spezifischer Geschäftsergebnisse. Ahmad ist auch der Meinung, dass diese Embeddings entscheidend für den Aufbau eines langfristigen semantischen Gedächtnisses für Datenagenten sein werden.
Stephanie Walter, Analystin bei HyperFrame Research, pflichtete Ahmads Einschätzung bei und betonte das transformative Potenzial. Sie stellte fest, dass autonome Vektor-Embeddings unstrukturierte und multimodale Unternehmensdaten in numerische Vektoren umwandeln, was eine skalierbare semantische Suche, Ähnlichkeitsvergleiche, Inhaltsempfehlungen und Anomalieerkennung ermöglicht – allesamt entscheidende Fähigkeiten für die Entwicklung und Beschleunigung fortschrittlicher KI-gestützter Lösungen. Walter wies auch darauf hin, dass Googles Konkurrenten, darunter Microsoft mit Azure Cognitive Search und Synapse, AWS mit Amazon OpenSearch Serverless, Snowflakes Cortex und Databricks’ Lakehouse AI, ähnliche Funktionen anbieten.
Über diese Agentenverbesserungen hinaus ist Googles KI-Abfrage-Engine innerhalb von BigQuery, die es Datenexperten ermöglicht, strukturierte und unstrukturierte Daten gleichzeitig zu analysieren, von einer frühen Testphase in eine offizielle öffentliche Vorschau für alle Kunden übergegangen.
Schließlich rüstet Google den konversationellen Analyseagenten innerhalb von Looker erheblich auf. Dieser Agent, der auf der Konferenz im April vorgestellt wurde, um Geschäftsanwendern das Abfragen ihrer Daten mittels natürlicher Sprache zu ermöglichen, enthält nun einen neuen Gemini-gestützten Code-Interpreter. Derzeit in der Vorschau, ermöglicht dieser Interpreter Geschäftsanwendern, komplexere, szenariobasierte “Was-wäre-wenn”-Fragen zu stellen, ohne IT-Unterstützung zu benötigen. Ahmad erklärte, dass der Interpreter Code generieren, klare Erklärungen in natürlicher Sprache liefern und die Erstellung interaktiver Visualisierungen erleichtern kann. Er verarbeitet komplexe natürliche Sprachabfragen durch fortschrittlichen Code und Workflows, die der Agent selbst in Python schreibt. Dieser Interpreter wird auch auf die Konversationsanalyse-API erweitert, die die Funktionen zur Verarbeitung natürlicher Sprache von Looker in breitere Unternehmensanwendungen und Workflows integriert. Diese API, die ursprünglich in einer privaten Vorschau auf der Cloud Next ’25 angekündigt wurde, ist nun allen Kunden und Partnern öffentlich zugänglich.