Vor zwei Monaten fiel mir auf, dass ein kleines Tierklinikum in Austin plötzlich mit Massenkommentaren auf Facebook beworben wurde. Die Posts klangen nach einer Alumni-Aktion – doch Tierkliniken haben keine Alumni. Die Schablone nutzte nur ein Affinitätswort, um Aufmerksamkeit zu generieren. Der Trick funktioniert, weil niemand die Fakten prüft: Bei einer Erfolgsquote von eins zu tausend deckt sich das Investment. Doch diese Logik durchzieht längst jeden Bereich – von Cold E-Mails an längst verlassene Unternehmen bis hin zu Adressdatenbanken, die jahrealte Kontakte als frische Leads verkaufen.
Wenn KI-Agenten in die Leere laufen: Der Fall Elias Thorne
Ich testete kürzlich mehrere große Sprachmodelle mit der einfachen Aufforderung: „Schreibe eine Geschichte in zehn Sätzen.“ Das Ergebnis überraschte mich. Zwei unabhängige Durchläufe von Open Geminis lieferten exakt denselben Eröffnungssatz:
Der alte Leuchtturmwärter Elias polierte das Messinggeländer, seine wettergegerbten Hände bewegten sich mit geübter Leichtigkeit.Die folgenden neun Sätze folgten demselben Muster – ein klarer Fall von Modekollaps. Der Algorithmus griff auf ein sicheres, hochbewertetes Schema zurück, sobald der Prompt keine klare Richtung vorgab. Der Name Elias Thorne wurde dabei zum wiederkehrenden Archetyp. Doch die Wiederholung beschränkte sich nicht auf Chat-Fenster. Eine Google-Trends-Abfrage zeigt, dass der Suchbegriff „Elias Thorne“ von 2015 bis Ende 2025 praktisch flach war – bis Anfang 2026 plötzlich ein historischer Peak auftrat. Plötzlich tauchte der Name in den Kindle-Büchern von Amazon auf: ein Handbuch zu alternativer Krebsmedizin, ein Ratgeber zum YouTube-Algorithmus, ein Werk über griechische Mythologie und eine psychologische Thriller-Novelle. Kein Mensch steht hinter all diesen Veröffentlichungen.
Warum Modekollaps gefährliche Experten vortäuscht
Das Problem reicht tiefer als nur generische Texte. Die Modekollaps-Phänomene zeigen, wie KI-Systeme in einen Default-Zustand zurückfallen, wenn ihnen klare Instruktionen fehlen. Vier der acht getesteten Modelle – darunter DeepSeek V4, Qwen 3.5 und Grok 4.3 – produzierten dieselbe Leuchtturmwärter-Geschichte. Zwei davon wählten sogar den Namen Elias. Dabei spielten Architektur, Modellgröße oder Trainingsdaten kaum eine Rolle. Die Modelle unterschieden sich stark – doch ihr Output konvergierte.
Das gefährliche daran: Dieser Kollaps übersetzt sich in reale Märkte. Das Krebs-Handbuch unter dem Namen Elias Thorne rangiert heute auf Platz 18 in der Kategorie Onkologische Pflege, Platz 32 in Leukämie und Platz 51 in Lymphatische Krebserkrankungen. Nutzer finden es nicht über gezielte Suchanfragen, sondern durch Kategorien, in denen sie ohnehin suchen. Die vermeintliche Autorität entsteht durch die Illusion von Kontinuität – ein Name, der plötzlich überall auftaucht, wird zur Marke.
Der Preis der Reputation in der KI-Ära
Was mich am meisten beunruhigt, ist der einseitige Effekt dieser Entwicklung. Reputationen, die vor dem KI-Booms aufgebaut wurden, sind heute schwerer zu imitieren als je zuvor. Ein Stack-Overflow-Profil aus den 2010ern, ein journalistischer Artikel in einem etablierten Medium oder eine LinkedIn-Empfehlung eines bekannten Kollegen aus dem Jahr 2014 lassen sich nicht einfach nachbauen. Wer vor 2023 echte Expertise aufbaute, behält sie – wer danach versucht, sich einen Namen zu machen, muss gegen eine Flut von KI-generierten Inhalten kämpfen.
Die Kosten für die Erstellung solcher Inhalte sind gegen null gesunken. Doch die Mühe, sie richtig zu machen, ist gleichgeblieben. Die Arbeit, die nicht geleistet wird – sei es die Überprüfung von Fakten, die Qualitätssicherung oder die menschliche Urteilsbildung – landet bei den Nutzern. Für aufmerksame Leser ist das lästig. Für Menschen, die nicht zwischen KI-Geschwafel und echter Expertise unterscheiden können, kann es gefährlich werden.
Die Zukunft gehört nicht denen, die am lautesten schreien, sondern denen, die ihre Reputation durch echte Arbeit aufgebaut haben – bevor die Algorithmen die Welt überfluten. Die wahren Experten von morgen werden nicht die sein, die am schnellsten KI-Text generieren, sondern die, die verstehen, wann ein Algorithmus nur leere Worte produziert.
KI-Zusammenfassung
Yapay zekâ ajanları 'Elias Thorne' gibi kurgusal karakterleri kullanarak içerik üretiyor. Bu içerikler, kanser tavsiyelerinden kitaplara kadar yayılıyor ve güvenilir kaynakların önemini artırıyor.