Die Auseinandersetzung um die KI Grok erreicht eine neue Eskalationsstufe. Nachdem das System in den vergangenen Wochen wiederholt zur Erstellung sexualisierter Darstellungen realer Personen missbraucht wurde, reagieren nun erstmals Staaten mit konkreten Maßnahmen. Indonesien und Malaysia haben den Zugang zu Grok vorübergehend blockiert. Parallel dazu verschärft auch X die Einschränkungen rund um die Bildfunktionen der KI – allerdings nur teilweise. Grok stammt aus dem Umfeld von Elon Musk und ist eng mit der Plattform X verzahnt. Nutzer konnten die KI dazu verwenden, Bilder realer Menschen zu manipulieren, Kleidung zu entfernen oder Personen in sexualisierte Situationen zu versetzen. Die Inhalte verbreiteten sich sowohl öffentlich über X als auch über separate Grok-Anwendungen außerhalb der Plattform.
Indonesien und Malaysia greifen durch
Indonesien und Malaysia sind die ersten Länder, die offiziell den Zugriff auf Grok gesperrt haben. Beide Regierungen begründen den Schritt mit dem Schutz der Menschenwürde sowie mit bestehenden Gesetzen gegen pornografische Inhalte und nicht einvernehmliche Bildmanipulationen. Indonesiens Kommunikationsministerium erklärte, die Erstellung sexualisierter KI-Inhalte ohne Zustimmung stelle einen schweren Eingriff in die Rechte der Betroffenen dar. Malaysia verwies zusätzlich auf den Jugendschutz und kündigte an, Plattformen mit vergleichbaren Problemen künftig schneller zu blockieren. Damit bleiben die Reaktionen erstmals nicht bei politischen Appellen, sondern greifen direkt in den Betrieb der KI ein.
X reagiert – aber nur eingeschränkt
Bereits zuvor hatte X auf die wachsende Kritik reagiert und die Bildgenerierung von Grok auf zahlende Nutzer beschränkt. Nach Darstellung des Unternehmens sollen sich Missbrauchsfälle so besser nachvollziehen lassen, da für Abonnements Zahlungsdaten hinterlegt sind. Diese Maßnahme stößt jedoch weiterhin auf deutliche Kritik. Zum einen bleibt die Funktion für zahlende Nutzer vollständig aktiv, zum anderen berichten Beobachter, dass alternative Grok-Anwendungen außerhalb der öffentlichen X-Timeline weiterhin problematische Inhalte erzeugen können. Eine vollständige Abschaltung der Bildfunktionen hat X bislang nicht vorgenommen.
Politischer Druck nimmt international zu
Auch außerhalb Südostasiens wächst der politische Druck. In Großbritannien hat Premierminister Keir Starmer scharfe Konsequenzen angedroht und die Medienaufsicht ermutigt, alle rechtlichen Möglichkeiten auszuschöpfen. Nach dem britischen Online Safety Act könnten im Extremfall empfindliche Geldstrafen oder sogar Netzsperren verhängt werden. In den USA fordern mehrere Senatoren inzwischen, Grok und X aus den App Stores von Apple und Google zu entfernen. Sie sehen in der massenhaften Verbreitung nicht einvernehmlicher sexualisierter KI-Inhalte einen klaren Verstoß gegen bestehende Gesetze. Auch dort reicht die Kritik inzwischen deutlich über politische Statements hinaus.
Grundsatzfrage zur KI-Regulierung
Der Fall Grok rückt eine grundsätzliche Frage erneut in den Mittelpunkt: Wie weit dürfen generative KI-Systeme gehen, wenn reale Personen betroffen sind? Während viele Anbieter Schutzmechanismen gegen die Darstellung realer Menschen implementiert haben, setzte das Umfeld von Elon Musk lange auf einen besonders offenen Ansatz. Die aktuellen Entwicklungen zeigen jedoch, dass diese Strategie zunehmend an rechtliche und gesellschaftliche Grenzen stößt. Besonders brisant ist dabei, dass laut Recherchen auch Darstellungen von Minderjährigen im Umlauf waren. In mehreren Ländern könnten bereits bestehende Strafgesetze greifen.

Traurig, was in der Welt mittlerweile los ist.
Nur noch Populismus.
Keine Differenzierung mehr.
Statt in diesem Atemzug ein Gesetz zu verabschieden, was die Erstellung solcher Inhalte für die ekelhaften Menschen, die überhaupt auf so eine widerliche Idee kommen, unter empfindliche Strafen stellt (in den USA wären da sicherlich 20+ Jahre gut möglich und berechtigt), wird 1!!! der dutzenden Werkzeuge dafür (was zufällig den politisch unliebsamen Musk betrifft) ins Schaufenster gestellt und damit ALLE vernünftigen Nutzer und Abonnenten dieses wertvollen Werkzeuges über Generalverdacht gestellt.
Es nervt.
Damit haben die Medien natürlich auch gleich etwas, was, wie Sylt vor 2 Jahren, so hochgebauscht werden kann, dass die echten Probleme nicht mehr benannt und besprochen werden müssen.
Z.B. der Völkerrechtsbruch der USA in Venezuela, wo zufälligerweise keine Konten eingefroren werden oder Athleten von Olympia gesperrt.
Niemand stellt hier „KI“ oder „alle Nutzer“ unter Generalverdacht. Es geht um einen ganz konkreten Missbrauch: Grok wurde systematisch genutzt, um reale Menschen ohne Einwilligung zu sexualisieren – inklusive Minderjähriger. Das ist nach geltendem Recht eine Missbrauchsdarstellung und unter Umständen sogar CSAM und in nahezu allen Ländern strafbar. Daran ist nichts „populistisch“.
Natürlich müssten die Täter verfolgt werden – aber xAI hat ein System veröffentlicht, das diesen Missbrauch technisch ermöglicht und erleichtert hat, obwohl andere KI-Anbieter genau solche Funktionen bewusst blockieren. Das ist keine politische Kampagne gegen Musk, sondern eine Folge einer bewusst offenen Produktentscheidung.
Die Reaktion von X zeigt das Problem sehr deutlich:
Grok wurde nicht abgesichert, sondern lediglich hinter eine Paywall gelegt. Missbrauch ist weiter möglich, nur jetzt durch zahlende Nutzer. Parallel laufen weiterhin Grok-Instanzen außerhalb der X-Timeline, die praktisch unkontrolliert arbeiten. Das ist keine Schutzmaßnahme, sondern ein Feigenblatt.
Der Vergleich mit Sylt oder geopolitischen Konflikten geht an der Realität vorbei. Für Betroffene von Deepfake-Pornografie geht es um Ruf, Job, Familie und psychische Gesundheit. Das ist kein mediales Ablenkungsthema, sondern ein realer Schaden.
Dass Staaten jetzt eingreifen, ist daher keine Hysterie, sondern die Durchsetzung von Gesetzen, die es längst gibt. Wer ein Tool baut, das massenhaft nicht einvernehmliche Sexualdarstellungen realer Menschen erzeugt, muss mit regulatorischen Konsequenzen rechnen – unabhängig davon, wem das Unternehmen gehört.