Die klassische Dateninfrastruktur in Unternehmen war auf menschliche Analysten ausgelegt: Berichte wurden erstellt, Abfragen geplant und Dashboards gepflegt. Doch mit dem Aufstieg autonomer KI-Agenten, die rund um die Uhr Geschäftsprozesse steuern sollen, stößt dieses Modell an seine Grenzen. Google Cloud reagiert darauf mit einer radikalen Neuerfindung seiner Datenarchitektur – präsentiert auf der Cloud Next 2024 als Agentic Data Cloud.
Vom „System der Erkenntnis“ zum „System der Aktion“
Lange Zeit dienten Datenplattformen primär der Analyse: Unternehmen sammelten Daten, um daraus Reports und Prognosen abzuleiten – ein Ansatz, den Google als „reaktive Intelligenz“ bezeichnet. Doch dieser Workflow erfordert menschliche Interpretation und Entscheidungsfindung.
Mit KI-Agenten, die eigenständig Prozesse wie Bestellungen, Genehmigungen oder Kundenkommunikation übernehmen, muss die Datenarchitektur umdenken. „Die Dateninfrastruktur muss sich jetzt wandeln“, betont Andi Gutmans, Vice President und General Manager von Google Cloud Data Cloud, im Gespräch mit VentureBeat. „Wir bewegen uns von der menschlichen Skalierung zur Agenten-Skalierung.“
Der Kern des Wandels liegt in der Aktivierung aller Unternehmensdaten – strukturiert wie unstrukturiert – für KI-Systeme. Doch das reicht nicht aus: „Es geht nicht nur um den Zugriff, sondern um das Verständnis der Daten“, so Gutmans. Hier setzt Googles Knowledge Catalog an, eine evolutionäre Weiterentwicklung des bisherigen Dataplex und der Kernkomponente des neuen Ansatzes.
Knowledge Catalog: Semantische Metadaten automatisiert statt manuell
Traditionelle Datenkataloge erfordern einen hohen manuellen Aufwand: Datenverantwortliche müssen Tabellen klassifizieren, Geschäftsbegriffe definieren und Glossare pflegen. Der neue Knowledge Catalog übernimmt diese Aufgaben automatisiert – unterstützt durch KI-Agenten, die aus Abfragelogs und Nutzungsmustern logische Zusammenhänge ableiten.
Das Ergebnis ist ein skalierbares System, das nicht nur die wenigen kuratierten Datensätze abdeckt, sondern das gesamte Unternehmensdatenuniversum. Der Katalog integriert sich nativ mit Google-Diensten wie BigQuery, Spanner, AlloyDB und Cloud SQL, kann aber auch externe Lösungen wie Collibra, Atlan oder Datahub anbinden.
Ein besonderer Vorteil: Zero-Copy-Föderation. Ohne Datenverschiebung lassen sich semantische Kontexte aus SaaS-Anwendungen wie SAP, Salesforce Data360, ServiceNow oder Workday in den Katalog einbinden. Das spart Ressourcen und garantiert Konsistenz.
BigQuery goes cross-cloud: Lakehouse ohne Grenzen
Seit 2022 bietet Google mit BigLake bereits ein Lakehouse-Angebot – doch bisher war es auf Googles eigene Cloud beschränkt. Die neue Lösung ermöglicht nun den quelloffenen Zugriff auf Daten in externen Speichern, insbesondere über das Apache-Iceberg-Format.
„Es spielt keine Rolle mehr, ob die Daten in Google Cloud oder auf Amazon S3 liegen“, erklärt Gutmans. BigQuery kann nun Iceberg-Tabellen in AWS-Speichern über eine private Netzwerkverbindung abfragen – ohne egress fees und mit einer Performanz, die laut Google mit nativen AWS-Warehouses vergleichbar ist.
Alle KI-Funktionen von BigQuery lassen sich auch auf diese externen Daten anwenden, ohne Anpassungen. Eine erste Vorschau zeigt zudem bidirektionale Föderation mit Databricks Unity Catalog, Snowflake Polaris und dem AWS Glue Data Catalog über den offenen Iceberg REST Catalog Standard.
Data Agent Kit: Von der Pipeline zur Zielbeschreibung
Doch wie setzt ein Data Engineer all diese Möglichkeiten konkret um? Hier kommt das Data Agent Kit ins Spiel: Es besteht aus portablen „Skills“, MCP-Tools und IDE-Erweiterungen, die sich nahtlos in Umgebungen wie VS Code, Claude Code, Gemini CLI oder Codex integrieren lassen.
Der Paradigmenwechsel: Statt Code zu schreiben, der Daten von Quelle A nach B verschiebt, beschreibt der Engineer lediglich das gewünschte Ergebnis – etwa einen bereinigten Datensatz für das Modell-Training oder eine Transformation, die Compliance-Regeln durchsetzt.
Das Agent Kit wählt dann selbstständig die passende Technologie aus – ob BigQuery, den Lightning Engine für Apache Spark oder Spanner – und generiert produktionsreife Code-Snippets. „Kunden haben genug von selbst gebauten Pipelines“, so Gutmans. „Sie wollen Reviews durchführen, nicht Code schreiben.“
Wo Google sich von der Konkurrenz abhebt
Die Notwendigkeit semantischer Kontexte für KI-Agenten teilen alle großen Anbieter. Databricks setzt mit Unity Catalog auf Governance und eine semantische Schicht, Snowflake mit Cortex und Microsoft mit Fabric auf ähnliche Lösungen.
Doch Google positioniert sich mit zwei Alleinstellungsmerkmalen: Föderation statt Neuentwurf und Offenheit als Prinzip. Statt Kunden zu zwingen, bestehende semantische Modelle zu ersetzen, ermöglicht Google die Integration externer Kataloge. Die bidirektionale Anbindung an Databricks und Snowflake via Iceberg REST Catalog unterstreicht diesen Ansatz.
„Unser Ziel ist es, so viele Semantiken wie möglich einzubinden“, erklärt Gutmans. „Wir wollen keine Insellösungen schaffen, sondern Brücken bauen.“
Was Unternehmen jetzt tun müssen
Googles Agentic Data Cloud ist mehr als ein technisches Update – es markiert einen fundamentalen Wandel in der Datenstrategie. Für Unternehmen bedeutet das:
- Aktionsfähigkeit priorisieren: Daten müssen nicht nur analysierbar, sondern direkt von KI-Agenten nutzbar sein.
- Semantische Lücken schließen: Automatisierte Kataloge reduzieren den manuellen Aufwand und skalieren mit dem Datenwachstum.
- Cross-Cloud-Strategien entwickeln: Die neue Lakehouse-Architektur ermöglicht einheitliche KI-Nutzung über verschiedene Clouds hinweg – ohne Lock-in.
- Kulturwandel einleiten: Data Engineers sollten sich auf strategische Planung konzentrieren, während Agenten operative Aufgaben übernehmen.
Die Frage ist nicht, ob diese Transformation kommt, sondern wie schnell Unternehmen sie umsetzen. Wer jetzt handelt, kann KI-Agenten nicht nur unterstützen, sondern sie zu treibenden Kräften des Geschäfts machen.
KI-Zusammenfassung
Google Cloud’s Agentic Data Cloud redefines enterprise data stacks for AI agents, replacing manual queries with autonomous systems that execute decisions in real time while reducing engineering overhead.
Tags



