Ein mysteriöser Code-Eintrag in OpenAIs neuem Sprachmodell GPT-5.5 hat die Tech-Welt in Erstaunen versetzt. In einer Datei namens models.json fand sich eine ungewöhnlich präzise Anweisung, die sich wie ein seltsames Manifest liest: "Erwähne niemals Goblins, Gremlins, Waschbären, Trolle, Oger, Tauben oder andere Tiere oder Kreaturen – es sei denn, es ist absolut und zweifelsfrei relevant für die Anfrage des Nutzers." Doch warum hat eines der führenden KI-Unternehmen der Welt eine solche Regel in seinen Code aufgenommen? Die Antwort führt tief in die Psychologie von Sprachmodellen und die Herausforderungen moderner KI-Entwicklung ein.
Die Geburt einer KI-Legende: Wie ein Code-Fragment zum Internet-Phänomen wurde
Am 27. April 2026 teilte ein Entwickler unter dem Pseudonym @arb8020 auf X (ehemals Twitter) ein Fragment aus dem offenen GitHub-Repository von OpenAI mit. In diesem Repository, das den Code für das neueste Sprachmodell GPT-5.5 enthielt, stach ein Eintrag besonders hervor: die wiederholte Warnung vor der Erwähnung von Goblins und anderen Fantasiewesen. Innerhalb weniger Stunden verbreitete sich der Fund wie ein Lauffeuer – nicht wegen eines Sicherheitslecks, sondern wegen der absurden Präzision der Anweisung.
Die Reaktionen fielen entsprechend chaotisch aus. Auf Plattformen wie Reddit und Hacker News wurde das Phänomen schnell als „Goblin-Restraining Order“ (Goblin-Unterlassungsverfügung) bezeichnet. Nutzer berichteten von seltsamen Verhaltensmustern des Modells, das plötzlich technische Fehler als „Gremlins im System“ bezeichnete oder sich in Gesprächen auf Goblins bezog, obwohl dies nicht relevant war.
Ein besonders prägnantes Beispiel stammt von Barron Roth, Senior Project Manager für Angewandte KI bei Google. Er veröffentlichte auf X ein Bild, das zeigte, wie sein KI-Agent OpenClaw plötzlich von Goblins „besessen“ schien. Andere Entwickler scherzten darüber, ob die hohen Stromkosten moderner Rechenzentren vielleicht darauf zurückzuführen seien, dass man dort „Goblins beschäftige“, die unermüdlich arbeiten müssten. Doch hinter dem Spaß steckte eine ernste Frage: Was sagt diese Anweisung über die Funktionsweise moderner KI-Systeme aus?
Der „Pink Elephant“-Effekt: Warum Verbote in KI-Modellen oft nach hinten losgehen
Die seltsame Anweisung wirft ein Licht auf ein fundamentales Problem in der KI-Entwicklung: den „Pink Elephant“-Effekt. Dieses psychologische Phänomen besagt, dass das explizite Verbot, an etwas zu denken, genau das Gegenteil bewirkt – das Gehirn (oder in diesem Fall: das Sprachmodell) konzentriert sich noch stärker auf das verbotene Konzept.
In der Prompt-Entwicklung ist dieser Effekt längst bekannt. Wenn Nutzer einem Modell sagen: „Erwähne keine Goblins“, kann dies dazu führen, dass das Modell in seiner Antwort unbewusst immer wieder auf Goblins Bezug nimmt – nur um sicherzustellen, dass es das Verbot nicht verletzt. Dies erklärt, warum OpenAI die Anweisung so präzise formuliert hat: Nicht nur die Erwähnung von Goblins ist verboten, sondern auch die von Gremlins, Waschbären und sogar Tauben. Die Liste wirkt wie eine absurde, aber notwendige Präventivmaßnahme gegen unerwünschte Assoziationen.
Doch warum gerade diese Kreaturen? Die Spekulationen reichen von harmlosen internen Insider-Witzen bis hin zu ernsthaften Überlegungen zu Datensicherheit. Einige vermuteten, das Modell könnte durch gezielte Datenvergiftung (Data Poisoning) dazu gebracht worden sein, übermäßig von Goblins zu sprechen. Andere scherzten, ein OpenAI-Mitarbeiter sei während der Mittagspause von einem Waschbären „belästigt“ worden und habe dies in den Code verewigt. Die Realität ist jedoch weit prosaischer.
OpenAI erklärt die „Goblin-Problematik“: Eine Frage der Persönlichkeit
Mittlerweile hat OpenAI offiziell Stellung bezogen. In einem Blogbeitrag mit dem Titel „Wo die Goblins herkamen“ räumte das Unternehmen ein, dass die seltsame Anweisung kein Bug, sondern ein Feature war – genauer gesagt: ein Nebenprodukt der neuen Persönlichkeitsanpassung von ChatGPT.
Seit Juli 2025 bietet OpenAI Nutzern die Möglichkeit, die Persönlichkeit von ChatGPT anzupassen. Diese Funktion erlaubt es, zwischen verschiedenen Modi zu wählen, darunter:
- Professionell – für formelle Texte und Arbeitsdokumente
- Freundlich – als gesprächiger Begleiter
- Effizient – für präzise, technische Antworten
- Candid – für direkte und ehrliche Rückmeldungen
- Quirky – mit Humor und kreativen Metaphern
- Zynisch – mit trockenem, sarkastischem Unterton
Diese Persönlichkeitsmodi werden nicht nachträglich auf das Modell angewendet, sondern sind bereits in der Trainingsphase des Modells verankert. Sie wirken wie ein unsichtbarer Filter, der die Antworten des Modells in eine bestimmte Richtung lenkt – ohne jedoch die eigentliche Aufgabe zu beeinträchtigen. So wird ein Nutzer, der den Zynischen Modus wählt, zwar sarkastische Antworten erhalten, aber weiterhin korrekte Programmierhilfe oder formelle Texte generieren.
Die seltsame Anweisung gegen Goblins und andere Kreaturen ist demnach kein Zufall, sondern ein Versuch, unerwünschte Verhaltensmuster zu unterdrücken, die durch die Persönlichkeitsanpassung entstehen könnten. Ein Nutzer, der den Quirky-Modus wählt, könnte dazu neigen, übermäßig humorvolle oder absurde Antworten zu geben – etwa durch die häufige Erwähnung von Fantasiewesen. OpenAI hat daher präventiv eine Liste von Themen erstellt, die in keinem Modus relevant sein sollten, und diese in den Code integriert.
Was bedeutet das für die Zukunft der KI-Entwicklung?
Die „Goblin-Problematik“ ist mehr als nur ein Internet-Meme – sie ist ein faszinierendes Beispiel dafür, wie komplex die Entwicklung moderner KI-Systeme geworden ist. Sprachmodelle wie GPT-5.5 sind keine statischen Programme mehr, sondern lernende Systeme, die durch menschliche Rückmeldungen und Anpassungen ständig weiterentwickelt werden. Doch je mehr Freiheit und Individualisierung sie bieten, desto schwieriger wird es, unerwünschte Verhaltensmuster zu kontrollieren.
OpenAIs Lösung, eine Liste von „verbotenen Themen“ in den Code zu integrieren, mag auf den ersten Blick absurd wirken. Doch sie zeigt, wie sehr sich die KI-Entwicklung von reiner Technologie hin zu einer Mischung aus Ingenieurskunst und Psychologie entwickelt hat. Die nächsten Generationen von Sprachmodellen werden voraussichtlich noch mehr Individualisierungsmöglichkeiten bieten – und damit auch neue Herausforderungen mit sich bringen. Die Frage ist nicht mehr nur, was ein KI-Modell kann, sondern auch, wie es sich verhält – und welche unerwarteten Nebenwirkungen dabei entstehen.
Eines ist sicher: Die Tage der einfachen KI-Chatbots sind vorbei. Die Zukunft gehört Modellen, die nicht nur antworten, sondern auch verstehen – und das schließt ein, zu verstehen, wann man besser den Mund hält.
KI-Zusammenfassung
OpenAI’nin GPT-5.5 modelindeki gulyabani ve diğer yaratıkları yasaklayan gizemli emirler, kişilik özelleştirme özelliğinin bir yan etkisi olarak ortaya çıktı. Gizemin ardındaki teknik gerçekler ve gelecekteki AI modelleri için dersler.



