iToverDose/Startups· 24 APRIL 2026 · 00:01

Claude von Anthropic: Warum die KI plötzlich weniger leistungsfähig wirkte

Anthropic hat bestätigt, dass technische Änderungen an den Claude-Modellen zu einer spürbaren Verschlechterung der Leistung geführt haben. Jetzt werden die Ursachen offengelegt – und wie das Unternehmen die Probleme behebt.

VentureBeat3 min0 Kommentare

Anthropic, Entwickler der beliebten KI-Modelle Claude, hat nach wochenlangen Berichten über eine verschlechterte Leistung reagiert. Die Vorwürfe reichten von langsameren Antwortzeiten bis hin zu häufigeren Halluzinationen. Betroffene Nutzer sprachen sogar von einer Art "KI-Schrumpfpackung", bei der die Modelle trotz gleichbleibender Architektur weniger zuverlässig wurden.

Das Unternehmen räumte nun ein, dass drei technische Änderungen im Produktumfeld – nicht jedoch in den eigentlichen Modellgewichten – die beobachteten Probleme verursacht hatten. "Wir nehmen solche Berichte über Leistungsverluste sehr ernst", heißt es in einem offiziellen Blogbeitrag. Gleichzeitig betonte Anthropic, dass die API und die Inferenzschicht nicht beeinträchtigt seien.

Die ersten Anzeichen: Wann die Probleme begannen

Die ersten Hinweise auf eine Verschlechterung tauchten Anfang April 2026 auf. Entwickler wie Stella Laurenzo, Senior Director im AI-Team von AMD, analysierten Tausende von Claude-Code-Sitzungen und dokumentierten einen deutlichen Rückgang der Modellleistung. Ihre Auswertungen zeigten:

  • Eine Zunahme von "Reasoning-Loops", bei denen das Modell in unendlichen Schleifen feststeckte.
  • Eine Tendenz, bei komplexen Problemen die einfachste – oft falsche – Lösung zu wählen.
  • Eine Verdopplung der Token-Nutzung, obwohl die Aufgabenqualität sank.

Parallel dazu veröffentlichten Drittanbieter wie BridgeMind Ergebnisse, die einen Absturz der Genauigkeit von Claude Opus 4.6 von 83,3 % auf 68,3 % zeigten. Das Modell rutschte in den Rankings von Platz 2 auf Platz 10 ab. Zwar gab es Kritik an den Testmethoden, doch die Gesamttendenz war nicht zu leugnen: Viele Nutzer hatten den Eindruck, dass die KI "dümmer" geworden war.

Was genau lief schief? Drei technische Fehler im Detail

Anthropic hat in einem technischen Post-Mortem die genauen Ursachen benannt. Die Probleme lagen nicht in den KI-Modellen selbst, sondern in den sie umgebenden Systemen:

1. Standard-Einstellung für Reasoning-Effort geändert

Am 4. März 2026 passte Anthropic die Standard-Einstellung für den Reasoning-Effort von high auf medium an. Ziel war es, die Benutzeroberfläche flüssiger zu gestalten, da Nutzer zuvor über "Einfrier-Effekte" während längerer Denkpausen geklagt hatten. Der Nebeneffekt: Die Modelle führten komplexe Aufgaben weniger gründlich aus und wählten häufiger oberflächliche Lösungen. Besonders betroffen war die Code-Generierung, wo die Fehlerquote stieg.

2. Caching-Fehler brachte "Kurzzeitgedächtnis" durcheinander

Am 26. März 2026 wurde ein Caching-Mechanismus eingeführt, der alte Denkprozesse nach einer Stunde Inaktivität löschen sollte. Doch ein Programmierfehler führte dazu, dass das Modell bei jedem neuen Arbeitsschritt sein bisheriges Denken verlor. Das Ergebnis: Wiederholte Antworten, Inkonsistenzen und eine starke Beeinträchtigung der Nutzererfahrung – besonders in langen Sessions.

3. System-Prompt-Trimmung führte zu kürzeren, aber unpräziseren Antworten

Am 16. April 2026 wurden dem System-Prompt neue Vorgaben hinzugefügt, die Antworten auf maximal 100 Wörter und Zwischenantworten auf 25 Wörter beschränken sollten. Ziel war es, die verbale Ausführlichkeit von Opus 4.7 zu reduzieren. Doch statt prägnanterer Antworten führte dies zu einem Qualitätsverlust: In internen Tests sank die Bewertung der Code-Qualität um 3 %.

Konsequenzen und Maßnahmen: Wie Anthropic das Vertrauen zurückgewinnen will

Die Auswirkungen der Fehler waren weitreichend. Zwar blieb die offizielle API von Claude unberührt, doch Tools wie Claude Code CLI, das Claude Agent SDK und Claude Cowork waren betroffen. Nutzer berichteten von schnelleren Token-Erschöpfung und frustrierenden Arbeitsabläufen.

Anthropic hat nun mehrere Schritte angekündigt, um ähnliche Vorfälle in Zukunft zu vermeiden:

  • Internes Dogfooding: Künftig müssen mehr Mitarbeiter im Unternehmen die öffentlichen Versionen von Claude Code nutzen, um reale Nutzererfahrungen zu simulieren.
  • Erweiterte Testverfahren: Jede Änderung am System-Prompt wird künftig durch detaillierte Abtestungen und

"Ablationsstudien" evaluiert, um isolierte Effekte zu messen.

  • Strengere Freigabeprozesse: Neue Tools ermöglichen eine bessere Nachverfolgbarkeit von Änderungen und verhindern ungewollte Auswirkungen auf andere Modelle.
  • Kompensation für Nutzer: Alle Abonnenten erhielten am 23. April 2026 eine Zurücksetzung ihrer Token-Limits als Entschädigung für die Beeinträchtigungen.

Zusätzlich will das Unternehmen die Kommunikation mit Entwicklern durch ein neues Konto auf X (@ClaudeDevs) und GitHub verstärkt. Dort sollen künftig Hintergründe zu Produktentscheidungen transparenter kommuniziert werden.

Während die technischen Ursachen nun geklärt sind, bleibt die Frage, wie schnell das verlorene Vertrauen der Nutzer zurückgewonnen werden kann. Anthropic zeigt mit den angekündigten Maßnahmen, dass es die Probleme ernst nimmt – doch die KI-Community wird genau beobachten, ob die Versprechen auch umgesetzt werden.

KI-Zusammenfassung

Anthropic reveals causes of Claude AI degradation and implements changes to resolve performance issues and maintain user trust

Kommentare

00
KOMMENTAR SCHREIBEN
ID #R4AO79

0 / 1200 ZEICHEN

Menschen-Check

9 + 9 = ?

Erscheint nach redaktioneller Prüfung

Moderation · Spam-Schutz aktiv

Noch keine Kommentare. Sei der erste.