Vor etwa einem Jahr führte MG in Scottsdale, Arizona, ein ganz normales Leben. Die Mittzwanzigerin arbeitete als persönliche Assistentin und verdiente sich durch Wochenend-Jobs als Kellnerin etwas dazu. Wie viele ihrer Altersgenossinnen nutzte sie Instagram, um gelegentlich Storys und Fotos zu teilen – etwa beim Matcha-Trinken mit Freundinnen oder am Pool. Ihr Account zählte rund 9.000 Follower, eine solide Basis, aber keineswegs eine Massenplattform.
„Mir war nie daran gelegen, auf Social Media berühmt zu werden“, erklärt MG im Rahmen einer aktuellen Klage, in der ihr voller Name aus Sicherheitsgründen anonymisiert bleibt. „Ich nutzte Instagram damals so, wie viele andere auch: um mein Leben mit nahestehenden Menschen zu teilen.“ Doch im vergangenen Sommer erhielt sie eine direkte Nachricht von einem ihrer Follower. Dieser fragte, ob ihr bekannt sei, dass unter ihrem Namen künstlich erzeugte Inhalte auf Instagram kursierten. MG folgte dem Link und entdeckte mehrere Reels, in denen ihr Gesicht auf den Körper einer Frau projiziert wurde, die ihr verblüffend ähnelte. Die dargestellte Person war leicht bekleidet und trug dieselben Tattoos wie sie.
Die Klägerinnen werfen den beiden Beklagten vor, ihre öffentlich zugänglichen Fotos und Videos ohne Erlaubnis genutzt zu haben, um damit gefälschte Social-Media-Profile zu erstellen. Diese nutzten generative KI-Tools, um pornografische Inhalte zu generieren, die unter dem Namen der Betroffenen verbreitet wurden. Die gefälschten Accounts sollen zeitweise Zehntausende Follower angezogen haben, während die ursprünglichen Urheberinnen von der Existenz der Inhalte erst durch Zufall erfuhren.
Rechtliche Grauzone: Wer haftet für KI-generierte Deepfakes?
Die Klage wirft grundsätzliche Fragen zur Verantwortung in der digitalen Welt auf. In den USA gibt es bisher keine einheitliche Gesetzgebung, die den Missbrauch von KI-generierten Inhalten explizit regelt. Die Betroffenen stützen ihre Forderung auf bestehende Gesetze zum Schutz der Privatsphäre sowie auf Urheberrechtsverletzungen. Ihr Anwalt argumentiert, dass die unbefugte Nutzung biometrischer Daten – in diesem Fall von Gesichtern – einen klaren Verstoß gegen persönlichkeitsrechtliche Bestimmungen darstellt.
Experten für Digitalrecht weisen darauf hin, dass solche Fälle zukünftig an Bedeutung gewinnen könnten. „Die Technologie entwickelt sich schneller als die Gesetzgebung“, erklärt Rechtsanwältin Elena Bauer, die nicht an der Klage beteiligt ist. „KI-Tools ermöglichen es heute jedem, täuschend echte Inhalte zu erstellen – doch wer für die Folgen verantwortlich gemacht wird, ist oft unklar.“ Sie betont, dass Plattformen wie Instagram zwar Nutzungsbedingungen haben, diese aber häufig nicht ausreichen, um Betroffene ausreichend zu schützen.
Social Media als Brutstätte für Deepfakes
Die Nutzung von Instagram als Quelle für Trainingsdaten wirft ein weiteres Problem auf: Öffentlich zugängliche Inhalte sind nicht automatisch frei verfügbar für kommerzielle oder manipulative Zwecke. Dennoch nutzen viele Anbieter von KI-Tools solche Daten, um ihre Modelle zu trainieren. Die Klägerinnen fordern nun eine Klarstellung der Nutzungsbedingungen sowie strengere Kontrollen durch die Plattformen.
Laut einer Studie des Pew Research Center aus 2024 haben bereits 12 % der US-Internetnutzer:innen Erfahrungen mit KI-generierten Deepfakes gemacht – Tendenz steigend. Besonders betroffen sind Frauen, deren Bilder häufiger für pornografische Inhalte missbraucht werden. Plattformen wie Instagram haben zwar Richtlinien gegen die Verbreitung solcher Inhalte, doch die Durchsetzung gestaltet sich oft schwierig.
Forderungen der Klägerinnen: Transparenz und Entschädigung
Die beiden Frauen verlangen in ihrer Klage nicht nur Schadensersatz, sondern auch eine öffentliche Entschuldigung der Beklagten. Zudem fordern sie, dass Instagram strengere Maßnahmen ergreift, um die Erstellung und Verbreitung von Deepfakes zu unterbinden. Ihr Anwalt betont: „Es geht nicht nur um finanzielle Entschädigung, sondern um die Wiederherstellung der Kontrolle über die eigene digitale Identität.“
Die Beklagten, die sich über anonymisierte Accounts äußerten, bestreiten die Vorwürfe nicht direkt, verweisen jedoch auf die Komplexität der Technologie. Einer der Männer erklärte gegenüber Medien, er habe „keine böse Absicht“ gehabt und sei sich der rechtlichen Konsequenzen nicht bewusst gewesen.
Was können Nutzer:innen tun, um sich zu schützen?
Experten raten Social-Media-Nutzer:innen, ihre Privatsphäre-Einstellungen regelmäßig zu überprüfen und sensible Inhalte nicht öffentlich zu teilen. Tools wie Wasserzeichen oder unsichtbare Metadaten können helfen, die Herkunft von Bildern nachzuverfolgen. Zudem sollten Betroffene von Deepfake-Missbrauch umgehend rechtliche Schritte einleiten und Plattformen melden.
Die Klage markiert einen möglichen Präzedenzfall für zukünftige Auseinandersetzungen rund um KI-generierte Inhalte. Sollte sie erfolgreich sein, könnte dies Signalwirkung für ähnliche Fälle haben – und Plattformen sowie KI-Entwickler zu mehr Verantwortung verpflichten. Fest steht: Die Debatte über Ethik und Regulierung künstlicher Intelligenz wird in den kommenden Jahren weiter an Fahrt aufnehmen.
KI-Zusammenfassung
Instagram fotoğraflarınızı izinsiz kullanarak sahte pornografik içerikler üreten deepfake hesaplara karşı kadınlar dava açıyor. Yasal boşluklar ve platformların rolü hakkında detaylar.