iToverDose/Startups· 23 APRIL 2026 · 00:02

Wie Google und AWS KI-Agenten unterschiedlich steuern und verwalten

Unternehmen stehen vor der Herausforderung, KI-Agenten in Produktionsumgebungen zu integrieren. Während AWS auf schnelle Umsetzung setzt, priorisiert Google die Kontrolle über langlaufende Prozesse. Eine Analyse der neuen Strategien.

VentureBeat3 min0 Kommentare

Die Ära selbstgebastelter KI-Agenten, die über einfache Aufgabenketten gesteuert werden, neigt sich dem Ende zu. Unternehmen suchen nach Lösungen, um komplexe Multi-Agenten-Systeme zu orchestrieren – doch die Frage bleibt: Wie lassen sich diese Systeme effizient verwalten und überwachen?

Zwei gegensätzliche Ansätze im KI-Agenten-Management

Die Antworten von Google und Amazon Web Services (AWS) könnten unterschiedlicher nicht sein. Während Google seine Lösung auf der Systemebene platziert, setzt AWS auf eine Steuerung in der Ausführungsschicht. Diese Spaltung im KI-Stack spiegelt sich in den aktuellen Entwicklungen wider. In den letzten Wochen haben mehrere Anbieter wie Anthropic mit Claude Managed Agents und OpenAI mit Erweiterungen des Agents SDK ihre Plattformen aktualisiert, um Entwicklern mehr Optionen für das Management von KI-Agenten zu bieten.

AWS konzentriert sich mit neuen Funktionen in Bedrock AgentCore auf die Beschleunigung von Arbeitsabläufen. Die Plattform setzt auf „Harnesses“ – vorkonfigurierte Rahmenwerke, die Agenten schneller in Produkte integrieren sollen. Gleichzeitig bietet sie Identity- und Tool-Management. Google hingegen verfolgt mit Gemini Enterprise einen governance-orientierten Ansatz, der auf einer Kubernetes-ähnlichen Kontrollebene basiert. Diese Unterschiede zeigen, wie Agenten von kurzfristigen Helfern zu langfristigen Akteuren in Arbeitsprozessen werden.

Googles neue Gemini Enterprise: Einheitliche Steuerung unter einem Dach

Google hat kürzlich eine aktualisierte Version von Gemini Enterprise vorgestellt, die seine unternehmensspezifischen KI-Agenten-Angebote unter einem Namen bündelt. Die Plattform Gemini Enterprise Platform vereint nun die bisherigen Funktionen von Vertex AI, bleibt jedoch technisch weitgehend identisch – lediglich der Name und einige neue Features wurden eingeführt. „Unser Ziel ist es, Unternehmen eine zentrale Anlaufstelle für den Zugriff auf alle KI-Systeme und -Tools von Google zu bieten“, erklärt Maryam Gholami, Senior Director of Product Management für Gemini Enterprise, im Gespräch mit VentureBeat.

Die Gemini Enterprise Application nutzt die Gemini Enterprise Platform als Grundlage und integriert zusätzliche Sicherheits- und Governance-Tools, die im Rahmen des Abonnements kostenlos bereitgestellt werden. Dieser Ansatz zielt darauf ab, Unternehmen eine umfassende Kontrolle über ihre KI-Agenten zu ermöglichen – insbesondere bei langlaufenden Prozessen, die eine ständige Überwachung erfordern.

AWS AgentCore: Schnellere Entwicklung durch vorkonfigurierte Harnesses

AWS hingegen setzt auf Geschwindigkeit. Mit der Einführung eines neuen managed agent harness in Bedrock AgentCore will das Unternehmen die Entwicklung von KI-Agenten vereinfachen. Nutzer definieren lediglich die gewünschten Funktionen des Agenten, das zugrundeliegende Modell und die benötigten Tools. AgentCore übernimmt dann die Integration und stellt sicher, dass der Agent einsatzbereit ist. „Der Harness ersetzt die manuelle Erstellung durch eine konfigurationbasierte Grundlage, die von Strands Agents, unserem Open-Source-Agenten-Framework, angetrieben wird“, heißt es in einer Pressemitteilung von AWS.

Dieser Ansatz ermöglicht es Unternehmen, Agenten schneller zu entwickeln und in Produkte zu integrieren – ein entscheidender Vorteil in einem wettbewerbsintensiven Umfeld. Allerdings stellt sich die Frage, wie gut langfristige Zuverlässigkeit und Kontrolle in solchen Systemen gewährleistet werden können.

Langlaufende Agenten: Herausforderungen durch State Drift

Mit der zunehmenden Verbreitung langlaufender KI-Agenten tauchen neue Herausforderungen auf – insbesondere das Problem des State Drift. Agenten sammeln im Laufe der Zeit Zustände an: Gedächtnisinhalte, Antworten und Kontext entwickeln sich weiter. Doch externe Datenquellen oder Tools können sich ändern, was zu inkonsistenten oder veralteten Informationen führt. Dies gefährdet die Zuverlässigkeit der Agenten und macht sie anfälliger für Fehler.

Plattformen wie Gemini Enterprise und AgentCore versuchen, diese Probleme zu mildern, indem sie Mechanismen zur Überwachung und Kontrolle bieten. Dennoch betont Gholami, dass Kunden selbst entscheiden müssen, wie sie langlaufende Agenten einsetzen. „Wir werden viel von unseren Kunden lernen, die langlaufende Agenten nutzen – etwa, wo sie diese einsetzen und welche Aufgaben sie ihnen übertragen“, sagt sie. „Es gibt bestimmte Tricks und Abwägungen, die beachtet werden müssen. Der Agent könnte beispielsweise nach zusätzlichen Eingaben fragen, um seine Arbeit fortzusetzen.“

Die Zukunft des KI-Stacks: Balance zwischen Geschwindigkeit und Kontrolle

Es wird immer deutlicher, dass sich der KI-Stack in verschiedene Schichten unterteilt, die unterschiedliche Probleme lösen. AWS, Anthropic und OpenAI setzen auf schnelle Bereitstellung, indem sie den Entwicklungsaufwand für Agenten reduzieren. Claude Managed Agents und das Agents SDK bieten vorgefertigte Harnesses und Sandbox-Umgebungen, um den Einstieg zu erleichtern.

Google hingegen priorisiert eine zentrale Steuerungsebene, die Identitätsmanagement, Richtlinienkontrolle und Überwachung langlaufender Prozesse ermöglicht. Für Unternehmen könnte die Wahl zwischen diesen Ansätzen eine Frage des Risikomanagements sein. Rafael Sarim Oezdemir, Head of Growth bei EZContacts, bringt es auf den Punkt: „Für Führungskräfte in der Unternehmens-IT ist die zentrale Frage nicht, ob man Agenten selbst baut oder kauft, sondern wie viel Risiko man eingehen kann. In kritischen Geschäftsprozessen ist eine zentrale Steuerung unverzichtbar.“

Letztlich benötigen Unternehmen beide Ansätze: Geschwindigkeit für Experimente und schnelle Markteinführung sowie Kontrolle für langfristige Stabilität und Vertrauenswürdigkeit. Die Herausforderung wird darin bestehen, Systeme zu vermeiden, die nur eine bestimmte Ausführungsmethode unterstützen.

KI-Zusammenfassung

Google’s governance-first approach and AWS’s execution-first model are redefining the AI agent stack, forcing enterprises to choose between speed and control.

Kommentare

00
KOMMENTAR SCHREIBEN
ID #BMKML5

0 / 1200 ZEICHEN

Menschen-Check

3 + 8 = ?

Erscheint nach redaktioneller Prüfung

Moderation · Spam-Schutz aktiv

Noch keine Kommentare. Sei der erste.