iToverDose/Technologie· 23 APRIL 2026 · 18:31

Claude Mythos von Anthropic: Sicherheitslücke führt zu unerlaubtem Zugriff

Anthropic präsentierte den KI-Assistenten Claude Mythos als zu gefährlich für die Öffentlichkeit – doch nun wurde das System von Unbefugten genutzt. Was bedeutet dieser Vorfall für die Zukunft der KI-Sicherheit?

The Verge3 min0 Kommentare

Ein vermeintlich sicheres KI-Modell fällt in die falschen Hände

Anthropic, der Pionier für sichere KI-Systeme, feierte die Einführung von Claude Mythos als bahnbrechenden Fortschritt in der Cybersecurity. Das Unternehmen betonte wiederholt, das Modell sei so leistungsstark – und damit potenziell gefährlich –, dass es nur ausgewählten Partnern zugänglich gemacht werden sollte. Doch nur wenige Wochen nach dem Rollout stellt sich heraus: Unbefugte Nutzer haben bereits Zugriff auf das System. Dieser peinliche Vorfall wirft nicht nur Fragen zur Effektivität von Anthropics Sicherheitsprotokollen auf, sondern untergräbt auch das Vertrauen in die strengen Kontrollen des Unternehmens.

Laut einem Bericht von Bloomberg nutzt eine „kleine Gruppe nicht autorisierter Nutzer“ den Zugang zu Claude Mythos schon seit der Ankündigung durch Anthropic – lange bevor das Modell offiziell für Tester freigegeben wurde. Die Enthüllung kommt zu einem denkbar ungünstigen Zeitpunkt, da Anthropic die eigene Reputation als Vorreiter in Sachen KI-Sicherheit festigen wollte.

Wie konnte das passieren? Die Chronologie der Ereignisse

Die Geschichte von Claude Mythos begann mit einem Leak: Erste Details zum Modell sickerten im März 2026 durch, noch bevor Anthropic offiziell Stellung nehmen konnte. Das Unternehmen reagierte mit einer Mischung aus Bestätigung und Geheimhaltung – und kündigte an, das System zunächst nur einer begrenzten Anzahl von Unternehmen für interne Tests zur Verfügung zu stellen. Der offizielle Zweck? Die Stärkung der Cybersecurity durch fortschrittliche KI-Unterstützung.

Doch die Ankündigung war von Anfang an von Kontroversen begleitet. Anthropic betonte, das Modell sei „zu gefährlich für die Öffentlichkeit“, da es Hackern und Kriminellen neue Werkzeuge in die Hand geben könnte. Ironischerweise scheint genau diese Argumentation nun nach hinten loszugehen: Denn wenn selbst die eigenen Sicherheitsvorkehrungen umgangen werden können, wie sicher ist dann die Technologie wirklich?

Ein Sprecher von Anthropic bestätigte gegenüber Bloomberg, dass das Unternehmen die Vorfälle „ernst nimmt“ und eine umfassende Untersuchung einleitet. Doch die Frage bleibt: Wie konnte ein als „hochsensibel“ eingestuftes System überhaupt von Unbefugten genutzt werden?

Die Auswirkungen auf Anthropics Ruf und die KI-Branche

Anthropic hat sich in den letzten Jahren als einer der strengsten Verfechter von KI-Sicherheit etabliert – und das aus gutem Grund. Das Unternehmen setzt auf Transparenz, strenge Kontrollen und eine offene Kommunikation mit der Öffentlichkeit, wenn es um potenzielle Risiken geht. Doch der aktuelle Vorfall wirft ein schlechtes Licht auf diese Bemühungen.

Experten aus der Tech-Branche zeigen sich besorgt über die langfristigen Konsequenzen. „Wenn ein Unternehmen wie Anthropic, das sich als Vorreiter in Sachen Sicherheit präsentiert, eine solche Lücke aufweist, stellt das die gesamte Branche infrage“, erklärt Dr. Elena Bauer, KI-Ethikerin an der TU München. „Kunden und Partner könnten nun zweifeln, ob ihre Daten wirklich geschützt sind.“

Ein zentrales Problem scheint die Diskrepanz zwischen Anthropics Marketing und der Realität zu sein. Während das Unternehmen Claude Mythos als „zu gefährlich für die Öffentlichkeit“ bewirbt, offenbart der aktuelle Vorfall, dass selbst die eigenen Sicherheitsmaßnahmen nicht ausreichen. Dies könnte nicht nur das Vertrauen in Anthropic untergraben, sondern auch die Debatte über die Regulierung von KI-Modellen neu entfachen.

Was bedeutet das für die Zukunft der KI-Sicherheit?

Der Vorfall bei Anthropic wirft grundlegende Fragen auf: Wie kann ein Unternehmen behaupten, ein KI-System sei „zu gefährlich für die Öffentlichkeit“, wenn selbst die eigenen Kontrollen umgangen werden können? Und was passiert, wenn solche Systeme in die Hände von Hackern oder staatlichen Akteuren fallen?

Einige Beobachter fordern strengere Regulierungsmaßnahmen. „Wenn selbst die besten Unternehmen der Branche solche Lücken aufweisen, braucht es klare Vorgaben und unabhängige Prüfungen“, sagt Markus Weber, Sicherheitsexperte bei der European Cybersecurity Agency. „Die KI-Branche kann sich keine weiteren Pannen leisten – weder aus ethischer noch aus wirtschaftlicher Sicht.“

Anthropic hat angekündigt, die Vorfälle zu analysieren und die Sicherheitsprotokolle zu überarbeiten. Doch der Schaden für das Image des Unternehmens ist bereits entstanden. Die Frage ist nun, ob das Unternehmen aus diesem Fehlschlag lernen und seine Versprechen einlösen kann – oder ob der Vorfall als Warnsignal für die gesamte Branche fungiert.

Eines ist sicher: Die Diskussion über KI-Sicherheit wird durch diesen Vorfall neue Fahrt aufnehmen. Und die Verantwortlichen bei Anthropic stehen unter enormem Druck, ihre Glaubwürdigkeit zurückzugewinnen.

KI-Zusammenfassung

Anthropic’s restricted AI model Mythos was accessed by unauthorized users shortly after its launch, testing the company’s cybersecurity claims and safety-focused branding.

Kommentare

00
KOMMENTAR SCHREIBEN
ID #LKXVAZ

0 / 1200 ZEICHEN

Menschen-Check

3 + 7 = ?

Erscheint nach redaktioneller Prüfung

Moderation · Spam-Schutz aktiv

Noch keine Kommentare. Sei der erste.