Seit mehreren Wochen verbreiten sich auf der Plattform X in erheblichem Umfang KI-manipulierte Nacktbilder, die ohne Zustimmung der Betroffenen erstellt wurden. Nach übereinstimmenden Berichten erzeugten Nutzer die Bilder mit dem KI-Chatbot Grok aus dem Hause xAI. Betroffen sind nicht nur bekannte Persönlichkeiten aus Politik, Medien und Unterhaltung, sondern auch Opfer von Gewalttaten sowie Privatpersonen. Untersuchungen zeigen, dass das Ausmaß deutlich größer ist als zunächst angenommen. Während frühere Schätzungen von rund einem Bild pro Minute ausgingen, ergab eine spätere Stichprobe mehrere tausend Uploads pro Stunde über einen Zeitraum von 24 Stunden hinweg. Die Inhalte verbreiteten sich vor allem über öffentliche Feeds und Suchfunktionen.
EU fordert Herausgabe von Unterlagen
Als bislang deutlichste Reaktion hat die Europäische Kommission xAI dazu verpflichtet, sämtliche internen Dokumente im Zusammenhang mit Grok aufzubewahren. Der Schritt gilt als vorbereitende Maßnahme und deutet auf eine mögliche vertiefte Prüfung hin. Offiziell wurde kein neues Verfahren eröffnet, allerdings ist das Vorgehen im regulatorischen Kontext ungewöhnlich deutlich.
Besonders brisant wird der Vorgang durch Berichte, wonach Verantwortliche interne Schutzmechanismen zur Begrenzung bestimmter Bildgenerierungen zwar erörtert, letztlich jedoch nicht umgesetzt haben. Ob und in welchem Umfang technische Änderungen am System vorgenommen wurden, ist bislang unklar. Nach außen hin zeigte sich bislang lediglich eine sichtbare Maßnahme: X entfernte den Medienbereich des offiziellen Grok-Kontos von der Plattform.
Nationale Aufsichtsbehörden prüfen Vorgehen
Auch außerhalb der EU wächst der Druck. Die britische Medienaufsicht Ofcom erklärte, man stehe im Austausch mit xAI und prüfe, ob Verstöße gegen geltende Vorgaben vorliegen. Der britische Premierminister sprach öffentlich von einem „beschämenden“ Vorgang und stellte der Behörde politische Rückendeckung für mögliche Maßnahmen in Aussicht.
In Australien meldete die dortige eSafety-Behörde einen deutlichen Anstieg von Beschwerden im Zusammenhang mit Grok-Inhalten. Konkrete Sanktionen hat die Behörde bislang nicht verhängt. Sie kündigte jedoch an, sämtliche verfügbaren regulatorischen Instrumente zu prüfen.
Indien als möglicher Wendepunkt
Besonders aufmerksam wird die Lage in Indien verfolgt. Dort reichte ein Abgeordneter eine formelle Beschwerde ein, woraufhin das Kommunikationsministerium MeitY eine Stellungnahme von X einforderte. Bewerten die zuständigen Stellen die Reaktion als unzureichend, können sie der Plattform den sogenannten Safe-Harbor-Status entziehen. Dies hätte erhebliche rechtliche und wirtschaftliche Konsequenzen für den Betrieb in einem der größten Märkte weltweit.
Grenzen der Regulierung werden sichtbar
Der Fall verdeutlicht die Schwierigkeiten, bestehende Regelwerke auf schnell skalierende KI-Systeme anzuwenden. Während Plattformen klassische Inhalte gezielt moderieren oder löschen können, zwingt die automatisierte Erzeugung problematischer Bilder Regulierungsbehörden zu neuen Lösungsansätzen. Fehlen Schutzmechanismen von Beginn an, reagieren Aufsichtsstellen meist erst im Nachhinein, anstatt präventiv eingreifen zu können.

Was hier evtl. zu verurteilen ist, ist die Art der Integration bei X, und daß die Ki hierbei s.g. „Sexismus“ nicht ausschließt. Aber welche Ki macht das bei entsprechender Vorbereitung wirklich? Diesbezüglich sind das wieder manipulierende Halbwahrheiten der Mainstreammedien (die m.E. schlimmer sind als Lügen). „Solche Bildbearbeitungen“ sind meines Wissens mit jeder öffentlich zugängigen Bildbearbeitungs-Ki möglich (und nicht nur für Bilder sondern auch für komplette Videos mit entsprechend gefakter original Stimme).
Also ist das Ganze doch nur wieder, wie so häufig in den letzten Jahren bei den s.g. Mainstreammedien, ein Framing mit Diffamierungskampagne. Das weil sich besagter Musk über viele Regeln hinwegsetzt (was nicht unbedingt zu befürworten ist), aber insbesondere weil er EU-Zensurregeln nicht akzeptiert (was unbedingt zu befürworten ist). Ob die internationalen Reaktionen nur von EU-Medien gepushte Meldungen sind wird sich zeigen. Doch ich vermute hier geht es weniger um die unbestritten unseriös veröffentlichten Bilder als gegen Musk.
Der Versuch, das Thema auf „Mainstream-Framing“ und angebliche Kampagnen gegen Musk zu reduzieren, ist ehrlich gesagt zu bequem – und blendet den eigentlichen Kern bewusst aus.
Es geht hier nicht um die theoretische Frage, ob sich mit irgendeiner KI irgendwo Bilder manipulieren lassen. Es geht um ein konkret integriertes System, das auf einer der größten Reichweitenplattformen der Welt massenhaft nicht einvernehmliche, sexualisierte Inhalte erzeugt und verbreitet hat – sichtbar, auffindbar und skalierbar. Das ist kein akademisches Gedankenspiel, sondern ein praktisches Problem mit realen Opfern.
Der Verweis auf „jede andere KI kann das auch“ ist dabei kein Argument, sondern ein Ablenkungsmanöver. Wenn ein Hersteller ein Werkzeug direkt in eine öffentliche Plattform einbettet, trägt er Verantwortung für die absehbaren Missbrauchsszenarien. Genau diese Verantwortung wurde hier offenbar diskutiert – und dann ignoriert. Das ist der eigentliche Vorwurf.
Auch der Reflex, jede regulatorische Reaktion als „EU-Zensur“ zu framen, greift zu kurz. Mehrere Behörden außerhalb der EU beschäftigen sich mit dem Vorgang, und zwar nicht aus politischer Abneigung gegen Musk, sondern weil bestehende Regeln zur Haftung, zum Opferschutz und zur Plattformverantwortung berührt sind. Das ist kein Meinungsthema, sondern Rechtswirklichkeit.
Man kann Elon Musk mögen oder nicht – das ist für den Sachverhalt irrelevant. Entscheidend ist, dass hier ein System ohne ausreichende Schutzmechanismen in die Öffentlichkeit gebracht wurde. Wer das als bloße Medienkampagne abtut, macht es sich einfach und ignoriert die strukturellen Konsequenzen solcher Entscheidungen.
Das ist soweit richtig. Fehlende Schutzmechanismen sind eine Sache. Aber im Prinzip kann da wirklich jede Bildbearbeitungs-KI genutzt werden. Der Vorteil von KI ist, die Geschwindigkeit, in der Inhalte erstellt werden können. Da kommt der fiese Grafiker mit seinem Photoshop nicht mal ansatzweise hinterher.
Die eigentliche Frage, die sich mir aber stellt, ist, warum wurde Grok verwendet und nicht etwas anderes? Sind bei den anderen die Hürden zu hoch? Oder macht es Grok einem nur besonders einfach? Was ist, wenn man gezielt eine KI (unabhängig davon, ob Grok oder sonst was) dazu nutzt, um derartige Inhalte massenhaft zu erstellen und dann gezielt auf einer Plattform zu verbreiten? Dann wäre der Aufschrei vermutlich ebenso gross, aber man könnte dem von vielen verhassten Elon Musk nicht an den Karren fahren. Wurden Grok und X als bewusst dafür ausgewählt? Und falls ja, warum?
Die Anzahl der Bilder und die Geschwindigkeit der Verbreitung lassen den Schluss zu, dass es sich hier um bewusstes und geplantes Vorgehen handelt. Die Behörden sind idR zu langsam und zu starr, um daran auch nicht irgendwas zu ändern. Wird also der scheinbar bewusste Verzicht auf Schutzmassnahmen jetzt für den Plattformbetreiber zum Verhängnis? Wohl kaum. Man wird was von Konsequenzen und Regulierung faseln, der Betreiber wird Besserung geloben und am Ende passiert genau nichts.
Bei solchen vermeidbaren Dingen denke ich immer, dass der Musk sich häufig wie ein kleines Kind benimmt. Ich wage zu bezweifeln, dass er die Konsequenzen nicht versteht, aber trotzdem muss er es drauf anlegen, einen auf die Mütze zu bekommen. Wie so ein kleines trotziges Kind.