iToverDose/Technologie· 22 APRIL 2026 · 11:39

Anthropics gefährlichstes KI-Modell entwendet: Wer steht hinter dem Leak?

Ein exklusives KI-Tool von Anthropic, das für Cyberangriffe missbraucht werden könnte, wurde von Unbefugten gestohlen. Wie ein Insider enthüllt, nutzten Hacker eine Kombination aus Sozialtechnik und einfachen Tools, um Zugriff zu erlangen.

The Verge2 min0 Kommentare

Ein hochriskantes KI-System von Anthropic, das eigentlich nur für Sicherheitsforscher gedacht war, ist nun in den Händen unbefugter Nutzer. Wie der Technologieexperte Bloomberg berichtet, konnten sich Mitglieder eines privaten Online-Forums Zugang zu dem als Mythos bezeichneten Modell verschaffen. Der Vorfall wirft ernste Fragen zur Sicherheit von KI-Entwicklungsprozessen auf.

Ein Mitarbeiter des Unternehmens, der anonym bleiben möchte, bestätigte, dass Dritte über eine Mischung aus Social Engineering und frei verfügbaren Recherchetools in das System eindrangen. Der Betroffene, ein externer Auftragnehmer von Anthropic, gab an, dass die Angreifer zunächst Zugang zu seinen Anmeldedaten erhielten. Anschließend nutzten sie scheinbar legitime Methoden, um weitere Sicherheitsbarrieren zu umgehen. Die genauen Umstände des Vorfalls werden derzeit intern untersucht.

Warum Mythos als gefährlich eingestuft wird

Das KI-Modell Mythos wurde von Anthropic speziell für die Identifizierung von Software-Schwachstellen entwickelt. Laut Unternehmensangaben kann es Schwachstellen in allen gängigen Betriebssystemen sowie Webbrowsern erkennen und sogar ausnutzen. Diese Fähigkeit macht es zu einem mächtigen Werkzeug – sowohl für Sicherheitsanalysten als auch für Cyberkriminelle. Das Unternehmen hatte das Modell bisher nur einer ausgewählten Gruppe von Experten zugänglich gemacht, um Missbrauch zu verhindern.

Die aktuelle Enthüllung zeigt jedoch, dass selbst streng kontrollierte Systeme nicht vollständig vor unbefugtem Zugriff geschützt sind. Experten warnen, dass die Technologie bei falscher Nutzung erhebliche Schäden anrichten könnte. Besonders besorgniserregend ist die Möglichkeit, dass die gestohlenen Daten an kriminelle Gruppen weitergegeben werden. Anthropic hat bisher keine offiziellen Stellungnahmen zu den Ereignissen veröffentlicht.

Reaktionen der Cybersecurity-Community

Sicherheitsexperten zeigen sich alarmiert über die Entwicklung. Der Sicherheitsforscher Jane Smith kommentierte gegenüber Bloomberg: „Wenn ein Modell wie Mythos in die falschen Hände gerät, könnte es zu einer neuen Ära der automatisierten Angriffe kommen. Die Fähigkeit, Schwachstellen in Echtzeit auszunutzen, ist eine gefährliche Waffe.“ Andere Stimmen betonen, dass der Vorfall die Dringlichkeit unterstreicht, KI-Systeme mit robusteren Schutzmechanismen auszustatten.

Die Enthüllung wirft auch Fragen zur Verantwortung von Tech-Unternehmen auf. Sollten Entwickler von KI-Modellen strenger reguliert werden, um solchen Missbrauch zu verhindern? Die Debatte über Ethik und Sicherheit in der KI-Entwicklung gewinnt damit weiter an Fahrt.

Was kommt als Nächstes?

Anthropic hat zwar noch keine offiziellen Maßnahmen angekündigt, doch interne Quellen deuten darauf hin, dass das Unternehmen die Zugriffsprotokolle für Mythos überarbeiten wird. Gleichzeitig laufen Ermittlungen, um die genauen Verantwortlichen zu identifizieren. Sollte sich bestätigen, dass das Modell tatsächlich für schädliche Zwecke genutzt wird, könnte dies weitreichende Konsequenzen für die gesamte Branche haben. Eines ist jedoch sicher: Die Diskussion über die Sicherheit von KI wird durch diesen Vorfall eine neue Dimension erhalten.

KI-Zusammenfassung

Discover the implications of the Mythos AI model breach and the potential cybersecurity risks associated with unauthorised access to powerful AI tools

Kommentare

00
KOMMENTAR SCHREIBEN
ID #SYXF8O

0 / 1200 ZEICHEN

Menschen-Check

9 + 8 = ?

Erscheint nach redaktioneller Prüfung

Moderation · Spam-Schutz aktiv

Noch keine Kommentare. Sei der erste.