iToverDose/Startups· 11 MAI 2026 · 20:01

Wie Agenten-KI die IAM-Sicherheit in Unternehmen herausfordert

Agenten-basierte KI verändert die digitale Arbeitsweise – doch veraltete Identitätsmanagementsysteme können die neuen Risiken nicht abbilden. Warum traditionelle IAM-Lösungen an ihre Grenzen stoßen und wie Unternehmen ihre Sicherheitsarchitektur anpassen müssen.

VentureBeat4 min0 Kommentare

Die Integration von Künstlicher Intelligenz in Arbeitsprozesse hat eine neue Ära eingeläutet: Agenten-KI übernimmt zunehmend Aufgaben, die einst menschlichen Entscheidern vorbehalten waren. Doch während diese Technologie Produktivität und Effizienz steigert, offenbart sie eine kritische Schwachstelle in vielen Unternehmen – die mangelnde Anpassungsfähigkeit ihrer Identitäts- und Zugriffsmanagement-Systeme (IAM).

Die Herausforderung liegt nicht in der technologischen Reife der KI-Agenten selbst, sondern in der strukturellen Unfähigkeit heutiger IAM-Lösungen, die neu entstehenden nicht-menschlichen Identitäten zu verwalten. Ein Arzt, dessen KI-gestützte Transkriptionssoftware in Echtzeit Patientendaten aktualisiert und Therapieoptionen vorschlägt, oder ein Computer-Vision-System in der Fabrikhalle, das Qualitätskontrollen mit Übermenschlichkeit durchführt, erzeugen digitale Identitäten, die weder inventarisiert noch überwacht werden können. Cisco-Präsident Jeetu Patel warnte kürzlich auf der RSA Conference 2026: 85 % der Unternehmen testen zwar KI-Agenten in Pilotprojekten, doch nur 5 % haben diese bereits produktiv im Einsatz. Die daraus resultierende Lücke von 80 Prozentpunkten verdeutlicht ein fundamentales Vertrauensproblem.

Die Architektur der Unsicherheit: Warum IAM-Systeme versagen

Michael Dickman, Senior Vice President bei Cisco und ehemaliger Chief Product Officer von Gigamon sowie SVP bei Aruba Networks, identifiziert eine zentrale Schwachstelle: Traditionelle IAM-Systeme basieren auf manuell definierten Rollen und Zugriffsrechten, die für statische Benutzerkonten ausgelegt sind. KI-Agenten agieren jedoch dynamisch, verändern ihre Interaktionen mit Systemen in Echtzeit und entziehen sich damit klassischen Überwachungsmechanismen.

"Es geht um den Unterschied zwischen Wissen und Vermutung", erklärt Dickman in einem exklusiven Gespräch. Während viele Sicherheitstools auf telemetrischen Daten aus Endpunkten oder Anwendungen basieren, erfasst das Netzwerk selbst die tatsächlichen Kommunikationsflüsse zwischen Systemen – ohne Interpretation oder Latenz. Diese Rohdaten ermöglichen erst die korrekte Zuordnung von Agenten zu ihren Aktionen und bilden die Grundlage für eine präzise Zugriffskontrolle in Echtzeit.

Die Konsequenzen dieses Defizits zeigen sich in den Zahlen: Laut dem IBM X-Force Threat Intelligence Index 2026 stieg die Anzahl von Angriffen auf öffentlich zugängliche Anwendungen um 44 %, begünstigt durch fehlende Authentifizierungsmechanismen und die zunehmende Nutzung von KI zur Ausnutzung von Schwachstellen.

Vertrauen als Grundvoraussetzung – nicht als Nachgedanke

Ein häufiger Fehler in der KI-Strategie vieler Unternehmen besteht darin, Produktivitätsgewinne vor Sicherheitsbedenken zu priorisieren. Dickman betont jedoch, dass Vertrauen keine nachträgliche Überlegung sein darf, sondern von Anfang an in die Architektur integriert werden muss. Die Risiken sind evident: Ein kompromittierter KI-Agent könnte nicht nur Daten manipulieren, sondern auch physische Prozesse beeinflussen – etwa durch unautorisierte Änderungen in Patientenakten oder Produktionssteuerungen.

Der ehemalige Aruba-Netzwerkexperte unterteilt das Vertrauensproblem in vier zentrale Dimensionen:

  • Sichere Delegation: Klare Definition von Agenten-Rechten und Zuweisung von Verantwortlichkeiten an menschliche Akteure. Jede Aktion muss nachvollziehbar einem spezifischen Agenten und dessen Zweck zugeordnet werden können.
  • Kulturelle Anpassung: Die Integration von KI-Agenten verändert Arbeitsabläufe grundlegend. Dickman verweist auf das Beispiel der Alert-Flut: Während traditionelle Lösungen darauf abzielen, die Anzahl der Warnmeldungen zu reduzieren, können KI-Agenten nun selbstständig Analysen durchführen und Entscheidungen treffen – was neue Anforderungen an die Sicherheitskultur stellt.
  • Token-Ökonomie: Jede Agenten-Interaktion verbraucht Rechenleistung und verursacht Kosten. Eine hybride Architektur, in der deterministische Systeme für die Ausführung zuständig sind, während KI-Agenten die Entscheidungsfindung übernehmen, könnte hier Abhilfe schaffen.
  • Menschliche Bewertung: KI kann zwar große Mengen an Daten verarbeiten, doch menschliches Urteilsvermögen bleibt unverzichtbar. Ein Beispiel aus Dickmans Team zeigt, wie ein KI-Agent ein 60-seitiges Dokument mit redundanten Inhalten erstellte – ein Beleg dafür, dass KI zwar Effizienz steigert, aber ohne menschliche Feinjustierung zu unbrauchbaren Ergebnissen führt.

Warum Netzwerk-Telemetrie der Schlüssel zur Kontrolle ist

Die meisten Unternehmen verfügen über fragmentierte Datenquellen: Beobachtungstools, Anwendungsplattformen und Sicherheitssysteme liefern jeweils nur Ausschnitte der Realität. Doch erst die ganzheitliche Erfassung der Systemkommunikation ermöglicht eine präzise Zugriffskontrolle für KI-Agenten.

"Das Netzwerk sieht, was andere Quellen nicht erfassen", so Dickman. Während Endpunkte oft nur lokale Aktivitäten protokollieren, erfasst die Netzwerkinfrastruktur die tatsächlichen Datenflüsse zwischen Systemen – ohne Interpretationsspielraum. Diese Transparenz ist besonders in Umgebungen mit IoT-Geräten und physischen KI-Systemen kritisch. Computer-Vision-Agenten in Fabriken oder im Einzelhandel verarbeiten hochsensible Daten, deren Zugriff streng kontrolliert werden muss.

Die Gefahr isolierter Agenten-Daten

Die bloße Aggregation von Daten reicht nicht aus, um die neuen Risiken zu bewältigen. Entscheidend ist die Fähigkeit, aus den Netzwerkdaten verwertbare Erkenntnisse zu gewinnen – etwa die Identifizierung ungewöhnlicher Kommunikationsmuster zwischen Agenten und kritischen Systemen.

"Es geht nicht nur um die Zusammenführung von Daten, sondern um die Generierung von Wissen aus dem Netzwerkverkehr", erklärt Dickman. Diese neuen Einblicke ermöglichen es Unternehmen, Agenten-Aktivitäten in Echtzeit zu überwachen und bei Abweichungen sofort zu reagieren.

Die Zukunft der KI-gestützten Automatisierung hängt somit weniger von der Leistungsfähigkeit der Modelle ab als von der Fähigkeit der Unternehmen, ihre Sicherheitsarchitekturen an die neuen Realitäten anzupassen. Wer die Integration von KI-Agenten als reine Produktivitätsfrage betrachtet, riskiert nicht nur Datenverluste, sondern auch den Verlust des Vertrauens in digitale Systeme.

Die nächsten Jahre werden zeigen, ob Unternehmen die notwendigen Weichen stellen – oder ob die KI-Revolution an den Grenzen veralteter Sicherheitskonzepte scheitern wird.

KI-Zusammenfassung

AI ajentleri, hastane kayıtlarını ve fabrika denetimlerini yönetiyorlar, ancak şirketlerin bunların güvenliğini sağlama altyapısı yok. Güven, iş verimliliğinden önce gelir ve temel bir gereksinimdir.

Kommentare

00
KOMMENTAR SCHREIBEN
ID #09WKO9

0 / 1200 ZEICHEN

Menschen-Check

5 + 2 = ?

Erscheint nach redaktioneller Prüfung

Moderation · Spam-Schutz aktiv

Noch keine Kommentare. Sei der erste.