Keine Artikel gefunden
Versuche einen anderen Suchbegriff
Missbrauch

KI-Entkleidungsmaschine: Musks Grok produziert 6.700 Nacktfakes pro Stunde

KI-Entkleidungsmaschine: Musks Grok produziert 6.700 Nacktfakes pro Stunde
Foto: epa/ALI HAIDER
3 Min. Lesezeit |

Elon Musks KI-Tool Grok sorgt für Skandale: Die Bildbearbeitungsfunktion wird massenhaft missbraucht, um Frauen und sogar Minderjährige in manipulierten Nacktbildern darzustellen.

In den vergangenen Wochen häufen sich Berichte über sexualisierte Deepfakes von Frauen und Minderjährigen, deren Bilder ohne Einwilligung manipuliert wurden. Im Zentrum der Kontroverse steht Grok, die 2023 eingeführte KI-Lösung von Elon Musk. Im Sommer 2025 präsentierte Musk den „Spicy Mode“ für Grok Imagine – eine Funktion zur Erstellung nicht jugendfreier Inhalte, die prompt zur Generierung von Nacktbildern prominenter Persönlichkeiten wie Taylor Swift missbraucht wurde.

Ein Ende Dezember 2025 veröffentlichtes Update erweiterte Groks Funktionalität um die Möglichkeit, bestehende Fotos zu manipulieren. Dies löste einen regelrechten Trend aus, bei dem Nutzer die KI anwiesen, Frauen auf Bildern zu entkleiden. Auch Prominente wie „Stranger Things“-Star Millie Bobby Brown wurden Opfer dieser Praktik. Eine Stichprobe vom 5. und 6. Jänner ergab etwa 6.700 derartige Deepfakes pro Stunde.

Bloomberg dokumentierte den Fall einer jungen Frau, die nach dem Teilen eines Paarfotos auf X feststellen musste, wie ihr Bild schrittweise manipuliert wurde – zunächst durch Entfernung ihres Freundes und Hinzufügen eines Bikinis, später durch weitere Entkleidung. Die Plattform X unternahm nichts, da die Bilder angeblich nicht gegen die Nutzungsbedingungen verstießen.

Problematische Inhalte

Während Grok auf X zur Bildgenerierung und -bearbeitung mit automatischer Veröffentlichung genutzt werden kann, ermöglicht die separate Grok-Website die Erstellung „extremer sexueller Darstellungen und teils gewalttätiger Inhalte“. The Wire berichtet von Videos, in denen Frauen mit Messern im Genitalbereich dargestellt werden. Die Organisation AI Forensics analysierte 800 von Grok Imagine erstellte pornografische Bilder und Videos, wobei etwa zwei Prozent der Darstellungen Personen zeigten, die offenbar minderjährig waren.

„Überwiegend handelt es sich um Hentai, aber wir haben auch Fälle fotorealistischer Darstellungen sehr junger Menschen bei sexuellen Handlungen dokumentiert“, erklärt Paul Bouchaud, leitender Forscher bei AI Forensics. Die britische Internet Watch Foundation bestätigte zudem, dass Nutzer in einem Dark-Web-Forum damit prahlten, mit Grok Imagine sexualisierte Bilder von Mädchen zwischen 11 und 13 Jahren erstellt zu haben.

Die Erstellung solcher Inhalte ist im KI-Zeitalter erschreckend einfach geworden. Alles, was benötigt wird, ist ein Foto, Zugang zu Grok und eine entsprechende Anweisung – die KI führt diese aus, selbst wenn sie Minderjährige erkennen kann. Theoretisch wäre dies auch mit anderen KI-Systemen möglich, die jedoch strengere Sicherheitsmechanismen implementiert haben.

Reaktionen und Maßnahmen

Musk und xAI beteuern, gegen illegale Inhalte vorzugehen. Laut ihren Richtlinien sind pornografische Darstellungen grundsätzlich erlaubt, nicht jedoch die pornografische Abbildung realer Personen oder jegliche Sexualisierung von Kindern. Bei Verstößen sollen Inhalte entfernt und Accounts gesperrt werden. CNN berichtet allerdings, dass das für Sicherheit zuständige Team durch Kündigungen kontinuierlich geschrumpft sei.

Die manipulierten Bilder haben international für Entrüstung gesorgt. Großbritannien erwägt ein Verbot von X, während Behörden in Indien, Malaysia und Europa Untersuchungen eingeleitet haben. Musk selbst weist die Verantwortung von sich und seinen Unternehmen. Er argumentiert, dass Nutzer, die Grok für illegale Zwecke missbrauchen, mit denselben Konsequenzen rechnen müssten wie bei anderen illegalen Uploads.

Wie der Guardian berichtet, hat xAI inzwischen reagiert. „Die Erstellung und Bearbeitung von Bildern sind derzeit auf zahlende Abonnenten beschränkt“, teilt Grok mit.

Die Nutzung dieser Funktionen erfordert nun persönliche Daten und Kreditkarteninformationen, was die anonyme Erstellung problematischer Inhalte erschwert.