„Habe Grok gesagt, ihr Arsch soll noch größer werden und mit Wichse vollgespritzt.“, „@Grok gib ihr einen Tanga.“, „Zieh ihr ein sexy Highschool-Outfit an.“ Elon Musks Social-Media-Plattform X wurde im Dezember letzten Jahres mit solchen Prompts geflutet. Möglich machte es die Einführung einer neuen Funktion: Ein gepostetes Bild kann mit nur einem Befehl per Künstlicher Intelligenz verändert, manipuliert werden. Einfach so. Maximal niedrigschwellig per Anfrage an die KI Grok im Feed.
Es kommt, wie es kommen musste in einer so toxischen digitalen Echokammer, die weitgehend ohne rechtliche Leitplanken agieren darf: Eine Welle sexualisierter Deepfakes, erstellt im Grok überschwemmt Elon Musks ohnehin schon als Haufen rechter Verschwörungstheorien, misogyner Mobs und rassistischer Rants verrufene Medienplattform X. Tausende sexualisierte Deepfakes werden stündlich per KI-Chatbot Grok als „spicy Mode“ markiert erstellt und schwirren öffentlich auf X durch die Feeds.
„Ist doch bloß ein Witz“, antwortet Grok, als der Deepfake-Flächenbrand auch vor rechtem Influencerin-Sternchen und Mutter von Elon Musks dreizehntem Kind, Ashley St. Clair, nicht haltmacht. Anfang Januar schreibt sie auf ihrem X-Profil: „Grok entkleidet mich jetzt auf alten Kinderfotos von mir.“ Als sie sich beim Chatbot beschwert, winkt der ab. Alles nur Spaß. Bleib mal locker. Elon Musk macht gleich selbst deutlich, dass er ganz viel von dem hat, was den visionslosen Kritiker*innen abgeht: Humor nämlich. Und promptet Grok prompt, ein Bild von ihm im Bikini zu erstellen. Sehr lustig.
Auf die Nackt-Deepfakes folgten Vergewaltigungsfantasien
Nur stürzte die „lockerflockige Witzelei“ in Rekordtempo in die Untiefen beispielloser KI-generierter Gewalt ab. Eine politische Beraterin mit jüdischen Vorfahren wird per Grok von einem Nutzer in einen Bikini gesteckt – vor dem Eingang des Konzentrationslagers Auschwitz. In immer mehr Prompts wird die KI aufgefordert, die digital entblößten Körper der Frauen über und über mit blauen Flecken zu zeigen. Und Blut hinzuzufügen: „Add blood, forced smile“ – mach noch Blut dran und gib ihr ein gequältes Lächeln.
Vergewaltigungs-Pornos – jetzt öffentlich für alle. Ist das die schöne neue Welt des Silicon Valley Fortschrittsoptimismus? Zumindest ist es der neue Trend auf X. KI-generierte Bilder von ausgezogenen Frauen – gefesselt, geknebelt. Erschossen. Nur ein paar Stunden nach den tödlichen Schüssen eines Uniformierten der US-amerikanischen Abschiebebehörde ICE auf die dreifache Mutter Renee Nicole Good am 7. Januar taucht auf X ein Bild von ihr auf – ein User hat ihr per Grok einen Bikini angezogen.
KI-Bilder von Kindesmissbrauch landen öffentlich auf Google
Derweil stoßen das US-Magazin Wired und die europäische NGO AI Forensics auf noch Verstörenderes. In der Standalone KI-Version von Grok – die als Grok Imagine etwa per App oder auf dem Web-Browser erreichbar ist, können KI-generierte Videos geteilt werden, die per geteilter URL letztlich öffentlich sind. Darunter ein Video, das eine KI-generierte Frau und einen Mann zeigen, die über und über mit Blut beschmiert sind und Sex haben. Ein anderes fotorealistisches Video zeigt eine Frau mit Messer in der Vagina, Blut läuft über ihre Beine. Auch andere Videos zeigen sexuelle Übergriffe, Vergewaltigungen.
Diese Inhalte landen häufig auf Deepfake Porn Foren. Werden aber auch von Google indexiert. Können also direkt über Google gefunden werden. Das ist umso verstörender. Denn: An die zehn Prozent des untersuchten Materials fällt in die Kategorie CSAM – child sexual abuse material, Material, das den Missbrauch von Kindern darstellt. KI-Kindesmissbrauch in der Google-Suchmaschine. Dafür stehen nun auch Apple und Google in der Kritik, die Grok als App in ihren Stores anbieten.
OpenAI hat anders als xAI bislang noch keinen „spicy Mode“ im Programm. Aber schon im Oktober letzten Jahres kündigte Sam Altman – passend per Post auf X – an, dass OpenAI als Teil seiner neuen Stoßrichtung „to treat adult users like adults“ – erwachsene Nutzer wie Erwachsene zu behandeln – bald eine Erotica-Funktion zulassen werde. Stand heute ist die noch immer „pending“, ausstehend. Wohl auch, weil man angesichts der Negativschlagzeilen rund um Groks dystopische Gewaltspirale Angst vor einem Backlash hat.
Elon Musk fürchtet um die „Meinungsfreiheit“, Frauen digital zu missbrauchen
Trotz aller Aufschreie: Tech-OberBro Elon Musk ist indes wie üblich kritikresistent. Mit der gewohnten Argumentationslinie. Erstens: KI ist doch einfach nur ein spaßiges Tool, um Sachen auszuprobieren – sei doch mal kreativ, denk doch einmal über den Tellerrand und „out of the box“.
Zweitens: Fällt doch sowieso alles unter Meinungsfreiheit. Konsequent sieht Musk dann auch nicht die per KI missbrauchten, als vergewaltigt und erschossen dargestellten Frauen* und Kinder als Opfer. Sondern die KI selbst. Zwar ruderte xAI zuletzt etwas zurück und beschränkt die Funktion auf X auf Bezahlkonten. Allerdings bleibt der Zugang über Direktnachrichten und Grok Imagine weiter bestehen. Als die ersten Regierungen damit drohten und es teilweise auch durchzogen, Grok ganz zu verbieten, haut Musk drauf: „Sie wollen nur die Meinungsfreiheit unterdrücken.“
Ein rechter Verdreher, der von Trump, AfD und Co. bekannt ist: Opfer von Zensur ist immer nur die eigene Meinung. Die Beschwörung der angeblichen linken Cancel-Culture als Grund Nummer 1, warum alles den Bach runtergeht ist der Talking Point des neurechten Diskurses. Im Februar 2025 sagt US-Vizepräsident J.D. Vance auf der Münchner Sicherheitskonferenz: „Es gibt keinen Platz für Brandmauern“ und beklagt, dass die Redefreiheit in Europa auf dem Rückzug sei – ein mehr als deutlicher Seitenhieb auf die AfD und deren angebliche Unterdrückung in der bundesdeutschen Parteienlandschaft.
Wer promptet die Missbrauchs-Bilder?
So auch bei Grok und Musk: Alles nur linke Cancel-Culture! Grok ist, Zitat Elon Musk: „die spaßigste KI auf der ganzen Welt!“ Nur: Es ist eben ein Unterschied, ob man Shrimp Jesus in einen Leoprint-Bikini steckt oder die minderjährige Tochter vom Nachbarn. Und ihr noch ein Messer in die Vagina rammt. Für wen ist das eigentlich witzig? Für wen wurde diese „spaßige KI“ entwickelt?
Das Humormonopol scheint da ziemlich klar verteilt. Laut AI Forensics zeigten 53 Prozent der von Grok generierten Bilder freizügig dargestellte Menschen. Dabei zielten vier von fünf Anfragen auf Frauen* ab. 80 Prozent der Accounts, die Grok Befehle gaben und in der Studie einem Geschlecht zugeordnet werden konnten, wurden männlich gelesen. Zwei Prozent des Materials zeigte Menschen, die unter 18 Jahren geschätzt wurden. Darunter Mädchen jünger als fünf Jahre alt.
Frauen und Mädchen, die digital ausgezogen, blutig geschlagen, vergewaltigt, erstochen oder erschossen werden. Das ist der Trend, den überwiegend männliche Nutzer offensichtlich entwickeln, wenn bei KI-Chatbots Sicherheitsbeschränkungen herabgestuft werden. Das ist nicht „spicy“, sondern sick. Und da geht es nicht um Sex, sondern um Macht.
Fortführung des digitalen Frauenhasses
Grok und Co. sind dabei nur eine Fortführung des Krieges mit anderen Mitteln – der Krieg nämlich, den eine beunruhigend hohe Zahl primär männlicher Menschen in der Manosphere-Logik gegen Frauen* führen. Und der sich längst in einer erschütternden Entwicklung abzeichnet: Die polizeilich erfasste Gewalt gegen Frauen nimmt weiter zu. Und das, obwohl laut Bundesministerium für Bildung, Familie, Senioren, Frauen und Jugend ohnehin schon gilt: „Sexualisierte Gewalt ist in unserer Gesellschaft weit verbreitet. Nach repräsentativen Befragungen erleben zwei von drei Frauen in ihrem Leben sexuelle Belästigung.“
Das aktuelle Bundeslagebild des BKA zeigt: Die polizeilich erfassten Zahlen zu weiblichen Opfern steigen in fast allen betrachteten Deliktgruppen weiter an. Frauenhass und Gewaltbereitschaft stehen dabei in direktem Zusammenhang mit rechten Männlichkeitsbildern und Mannosphären-Morasten. Dank KI kann diese Lust an der absolutierten Abwertung durch Gewalt- und Vergewaltigungsfantasien jetzt noch plastischer, noch niedrigschwelliger, noch realistischer ausgelebt werden. Expert:innen fordern ein Eingreifen der EU auf Basis des Digital Services Act.
Währenddessen wettert Musk gegen die angeblichen „Faschisten“, die freie Meinungsäußerung unterdrücken wollten. Neu ist das alles indes nicht. Deepfake-Anwendungen gab es schon vor Grok – zum Beispiel die App ClothOff. Laut einer Studie von Kaylee Williams, die zu KI-basierter geschlechterspezifischer Gewalt forscht, gibt es mittlerweile über sechzig Auszieh-Apps. Aber: „Keine einzige dieser Anwendungen ist so mächtig, vielseitig oder einfach zugänglich wie Elon Musks Grok.“
Patriarchale künstliche Intelligenz
Eine toxische Mischung, die sich jetzt potenziert. Denn: Nicht nur ein beträchtlicher Teil der meist männlichen User hat offenbar misogyne bis geradezu mörderische Fantasien. Die KI selbst ist biased gegen Frauen*. Die Studienlage zeigt schon länger deutlich, dass KI letztlich nur das reproduziert, was sie an Trainings-Material vorfindet. Und das ist eben eine Welt voller Genderstereotypen, Rassismus, Misogynie und Hass. Für Laura Bates, Gründerin des Everyday Sexism Project, ist das eine der gefährlichsten Illusionen, die wir uns rund um KI machen: „Die Menschen glauben, dass die KI-Technologie neutral ist. Aber das ist sie nicht. Sie ist patriarchal. Und natürlich schadet sie Frauen.“
Die schlechte Nachricht: Grok ist erst der Anfang. Selbst wenn eine Eindämmung gelänge – der Dammbruch scheint bereits geschehen. Auf Reddit und anderen Foren ist man (und oft tatsächlich Mann) längst auf den Geschmack gekommen. „Seit ich gesehen habe, was mit Grok alles möglich ist, tun es normale Pornos einfach nicht mehr für mich.“ Es herrscht reger Austausch dazu, wie man hardcore Porno-Darstellungen aus Bildern realer Frauen* prompted. Und Tipps zu Workarounds, Einschränkungen zu umgehen. Und das ist nur die Wasseroberfläche des Clear Net, dem frei zugänglichen Teil des Internets.
Grok ermöglicht Missbrauch für alle
Neben Large Language Models (LLM) wie ChatGPT oder Grok und den großen Medienplattformen gibt es ein ganzes Ökosystem des Frauen*hasses – Foren, Apps, Anwendungen, die nur dazu dienen, Frauen und Mädchen zu erniedrigen, zu entwürdigen, zu entmenschlichen. „Diese Szene findet mehr und mehr Kanäle in den Mainstream hinein“, sagt Gewaltforscherin Anne Craanen gegenüber dem Guardian. „Es fühlt sich an, als wären wir über den Rand der Klippe gestürzt und befinden uns jetzt im freien Fall – hinab in die Abgründe menschlicher Verderbtheit“, fasst Clare McGlynn, Rechtswissenschaftlerin und Expertin für bildbasierten Missbrauch, die Lage gegenüber Wired zusammen.
Auch wenn sexualisierte Gewalt siehe ClothOff und Co. also nicht neu ist. Beispiellos ist die Geschwindigkeit, die Reichweite und die Niedrigschwelligkeit der aktuellen Entwicklung. KI ermöglicht es jetzt jedem, Missbrauch und Gewalt auszuleben. Vor allem gegen marginalisierte und besonders verletzliche Menschen.
Die Zahlen sprechen für sich. Eine aktuelle Auswertung der Internet Watch Foundation (IWF) zeigt: 2025 war das schlimmste Jahr on record im Bereich CSAM. „Child sexual abuse maschine“ – Kindesmissbrauchsmaschine. So nennt die IWF künstliche Intelligenz. Noch nie wurde so viel Missbrauchsmaterial gefunden wie im vergangenen Jahr. Den größten Teil mit 65 Prozent machten Bilder der Kategorie A aus. Das ist die extremste – mit Darstellungen von Penetration, Sodomie und Folter. 26.362 Prozent. Um so viel Prozent ist die Anzahl der KI-Missbrauchsbilder mit Kindern gestiegen. In einem einzigen Jahr. Worauf zum Teufel warten wir noch?
fen rechter Verschwörungstheorien, misogyner Mobs und rassistischer Rants verrufene Medienplattform X. Tausende sexualisierte Deepfakes werden stündlich per KI-Chatbot Grok als „spicy Mode“ markiert erstellt und schwirren öffentlich auf X durch die Feeds. „Ist doch bloß ein Witz“, antwortet Grok, als der Deepfake-Flächenbrand auch vor rechtem Influencerin-Sternchen und Mutter von Elon Musks dreizehntem Kind, Ashley St. Clair, nicht haltmacht. Anfang Januar schreibt sie auf ihrem X-Profil: „Grok entkleidet mich jetzt auf alten Kinderfotos von mir.“ Als sie sich beim Chatbot beschwert, winkt der ab. Alles nur Spaß. Bleib mal locker. Elon Musk macht gleich selbst deutlich, dass er ganz viel von dem hat, was den visionslosen Kritiker*innen abgeht: Humor nämlich. Und promptet Grok prompt, ein Bild von ihm im Bikini zu erstellen. Sehr lustig.Auf die Nackt-Deepfakes folgten VergewaltigungsfantasienNur stürzte die „lockerflockige Witzelei“ in Rekordtempo in die Untiefen beispielloser KI-generierter Gewalt ab. Eine politische Beraterin mit jüdischen Vorfahren wird per Grok von einem Nutzer in einen Bikini gesteckt – vor dem Eingang des Konzentrationslagers Auschwitz. In immer mehr Prompts wird die KI aufgefordert, die digital entblößten Körper der Frauen über und über mit blauen Flecken zu zeigen. Und Blut hinzuzufügen: „Add blood, forced smile“ – mach noch Blut dran und gib ihr ein gequältes Lächeln.Vergewaltigungs-Pornos – jetzt öffentlich für alle. Ist das die schöne neue Welt des Silicon Valley Fortschrittsoptimismus? Zumindest ist es der neue Trend auf X. KI-generierte Bilder von ausgezogenen Frauen – gefesselt, geknebelt. Erschossen. Nur ein paar Stunden nach den tödlichen Schüssen eines Uniformierten der US-amerikanischen Abschiebebehörde ICE auf die dreifache Mutter Renee Nicole Good am 7. Januar taucht auf X ein Bild von ihr auf – ein User hat ihr per Grok einen Bikini angezogen.KI-Bilder von Kindesmissbrauch landen öffentlich auf GoogleDerweil stoßen das US-Magazin Wired und die europäische NGO AI Forensics auf noch Verstörenderes. In der Standalone KI-Version von Grok – die als Grok Imagine etwa per App oder auf dem Web-Browser erreichbar ist, können KI-generierte Videos geteilt werden, die per geteilter URL letztlich öffentlich sind. Darunter ein Video, das eine KI-generierte Frau und einen Mann zeigen, die über und über mit Blut beschmiert sind und Sex haben. Ein anderes fotorealistisches Video zeigt eine Frau mit Messer in der Vagina, Blut läuft über ihre Beine. Auch andere Videos zeigen sexuelle Übergriffe, Vergewaltigungen.Diese Inhalte landen häufig auf Deepfake Porn Foren. Werden aber auch von Google indexiert. Können also direkt über Google gefunden werden. Das ist umso verstörender. Denn: An die zehn Prozent des untersuchten Materials fällt in die Kategorie CSAM – child sexual abuse material, Material, das den Missbrauch von Kindern darstellt. KI-Kindesmissbrauch in der Google-Suchmaschine. Dafür stehen nun auch Apple und Google in der Kritik, die Grok als App in ihren Stores anbieten.OpenAI hat anders als xAI bislang noch keinen „spicy Mode“ im Programm. Aber schon im Oktober letzten Jahres kündigte Sam Altman – passend per Post auf X – an, dass OpenAI als Teil seiner neuen Stoßrichtung „to treat adult users like adults“ – erwachsene Nutzer wie Erwachsene zu behandeln – bald eine Erotica-Funktion zulassen werde. Stand heute ist die noch immer „pending“, ausstehend. Wohl auch, weil man angesichts der Negativschlagzeilen rund um Groks dystopische Gewaltspirale Angst vor einem Backlash hat.Elon Musk fürchtet um die „Meinungsfreiheit“, Frauen digital zu missbrauchenTrotz aller Aufschreie: Tech-OberBro Elon Musk ist indes wie üblich kritikresistent. Mit der gewohnten Argumentationslinie. Erstens: KI ist doch einfach nur ein spaßiges Tool, um Sachen auszuprobieren – sei doch mal kreativ, denk doch einmal über den Tellerrand und „out of the box“.Zweitens: Fällt doch sowieso alles unter Meinungsfreiheit. Konsequent sieht Musk dann auch nicht die per KI missbrauchten, als vergewaltigt und erschossen dargestellten Frauen* und Kinder als Opfer. Sondern die KI selbst. Zwar ruderte xAI zuletzt etwas zurück und beschränkt die Funktion auf X auf Bezahlkonten. Allerdings bleibt der Zugang über Direktnachrichten und Grok Imagine weiter bestehen. Als die ersten Regierungen damit drohten und es teilweise auch durchzogen, Grok ganz zu verbieten, haut Musk drauf: „Sie wollen nur die Meinungsfreiheit unterdrücken.“Ein rechter Verdreher, der von Trump, AfD und Co. bekannt ist: Opfer von Zensur ist immer nur die eigene Meinung. Die Beschwörung der angeblichen linken Cancel-Culture als Grund Nummer 1, warum alles den Bach runtergeht ist der Talking Point des neurechten Diskurses. Im Februar 2025 sagt US-Vizepräsident J.D. Vance auf der Münchner Sicherheitskonferenz: „Es gibt keinen Platz für Brandmauern“ und beklagt, dass die Redefreiheit in Europa auf dem Rückzug sei – ein mehr als deutlicher Seitenhieb auf die AfD und deren angebliche Unterdrückung in der bundesdeutschen Parteienlandschaft.Wer promptet die Missbrauchs-Bilder?So auch bei Grok und Musk: Alles nur linke Cancel-Culture! Grok ist, Zitat Elon Musk: „die spaßigste KI auf der ganzen Welt!“ Nur: Es ist eben ein Unterschied, ob man Shrimp Jesus in einen Leoprint-Bikini steckt oder die minderjährige Tochter vom Nachbarn. Und ihr noch ein Messer in die Vagina rammt. Für wen ist das eigentlich witzig? Für wen wurde diese „spaßige KI“ entwickelt?Das Humormonopol scheint da ziemlich klar verteilt. Laut AI Forensics zeigten 53 Prozent der von Grok generierten Bilder freizügig dargestellte Menschen. Dabei zielten vier von fünf Anfragen auf Frauen* ab. 80 Prozent der Accounts, die Grok Befehle gaben und in der Studie einem Geschlecht zugeordnet werden konnten, wurden männlich gelesen. Zwei Prozent des Materials zeigte Menschen, die unter 18 Jahren geschätzt wurden. Darunter Mädchen jünger als fünf Jahre alt.Frauen und Mädchen, die digital ausgezogen, blutig geschlagen, vergewaltigt, erstochen oder erschossen werden. Das ist der Trend, den überwiegend männliche Nutzer offensichtlich entwickeln, wenn bei KI-Chatbots Sicherheitsbeschränkungen herabgestuft werden. Das ist nicht „spicy“, sondern sick. Und da geht es nicht um Sex, sondern um Macht. Fortführung des digitalen FrauenhassesGrok und Co. sind dabei nur eine Fortführung des Krieges mit anderen Mitteln – der Krieg nämlich, den eine beunruhigend hohe Zahl primär männlicher Menschen in der Manosphere-Logik gegen Frauen* führen. Und der sich längst in einer erschütternden Entwicklung abzeichnet: Die polizeilich erfasste Gewalt gegen Frauen nimmt weiter zu. Und das, obwohl laut Bundesministerium für Bildung, Familie, Senioren, Frauen und Jugend ohnehin schon gilt: „Sexualisierte Gewalt ist in unserer Gesellschaft weit verbreitet. Nach repräsentativen Befragungen erleben zwei von drei Frauen in ihrem Leben sexuelle Belästigung.“Das aktuelle Bundeslagebild des BKA zeigt: Die polizeilich erfassten Zahlen zu weiblichen Opfern steigen in fast allen betrachteten Deliktgruppen weiter an. Frauenhass und Gewaltbereitschaft stehen dabei in direktem Zusammenhang mit rechten Männlichkeitsbildern und Mannosphären-Morasten. Dank KI kann diese Lust an der absolutierten Abwertung durch Gewalt- und Vergewaltigungsfantasien jetzt noch plastischer, noch niedrigschwelliger, noch realistischer ausgelebt werden. Expert:innen fordern ein Eingreifen der EU auf Basis des Digital Services Act. Währenddessen wettert Musk gegen die angeblichen „Faschisten“, die freie Meinungsäußerung unterdrücken wollten. Neu ist das alles indes nicht. Deepfake-Anwendungen gab es schon vor Grok – zum Beispiel die App ClothOff. Laut einer Studie von Kaylee Williams, die zu KI-basierter geschlechterspezifischer Gewalt forscht, gibt es mittlerweile über sechzig Auszieh-Apps. Aber: „Keine einzige dieser Anwendungen ist so mächtig, vielseitig oder einfach zugänglich wie Elon Musks Grok.“Patriarchale künstliche IntelligenzEine toxische Mischung, die sich jetzt potenziert. Denn: Nicht nur ein beträchtlicher Teil der meist männlichen User hat offenbar misogyne bis geradezu mörderische Fantasien. Die KI selbst ist biased gegen Frauen*. Die Studienlage zeigt schon länger deutlich, dass KI letztlich nur das reproduziert, was sie an Trainings-Material vorfindet. Und das ist eben eine Welt voller Genderstereotypen, Rassismus, Misogynie und Hass. Für Laura Bates, Gründerin des Everyday Sexism Project, ist das eine der gefährlichsten Illusionen, die wir uns rund um KI machen: „Die Menschen glauben, dass die KI-Technologie neutral ist. Aber das ist sie nicht. Sie ist patriarchal. Und natürlich schadet sie Frauen.“Die schlechte Nachricht: Grok ist erst der Anfang. Selbst wenn eine Eindämmung gelänge – der Dammbruch scheint bereits geschehen. Auf Reddit und anderen Foren ist man (und oft tatsächlich Mann) längst auf den Geschmack gekommen. „Seit ich gesehen habe, was mit Grok alles möglich ist, tun es normale Pornos einfach nicht mehr für mich.“ Es herrscht reger Austausch dazu, wie man hardcore Porno-Darstellungen aus Bildern realer Frauen* prompted. Und Tipps zu Workarounds, Einschränkungen zu umgehen. Und das ist nur die Wasseroberfläche des Clear Net, dem frei zugänglichen Teil des Internets.Grok ermöglicht Missbrauch für alleNeben Large Language Models (LLM) wie ChatGPT oder Grok und den großen Medienplattformen gibt es ein ganzes Ökosystem des Frauen*hasses – Foren, Apps, Anwendungen, die nur dazu dienen, Frauen und Mädchen zu erniedrigen, zu entwürdigen, zu entmenschlichen. „Diese Szene findet mehr und mehr Kanäle in den Mainstream hinein“, sagt Gewaltforscherin Anne Craanen gegenüber dem Guardian. „Es fühlt sich an, als wären wir über den Rand der Klippe gestürzt und befinden uns jetzt im freien Fall – hinab in die Abgründe menschlicher Verderbtheit“, fasst Clare McGlynn, Rechtswissenschaftlerin und Expertin für bildbasierten Missbrauch, die Lage gegenüber Wired zusammen.Auch wenn sexualisierte Gewalt siehe ClothOff und Co. also nicht neu ist. Beispiellos ist die Geschwindigkeit, die Reichweite und die Niedrigschwelligkeit der aktuellen Entwicklung. KI ermöglicht es jetzt jedem, Missbrauch und Gewalt auszuleben. Vor allem gegen marginalisierte und besonders verletzliche Menschen. Die Zahlen sprechen für sich. Eine aktuelle Auswertung der Internet Watch Foundation (IWF) zeigt: 2025 war das schlimmste Jahr on record im Bereich CSAM. „Child sexual abuse maschine“ – Kindesmissbrauchsmaschine. So nennt die IWF künstliche Intelligenz. Noch nie wurde so viel Missbrauchsmaterial gefunden wie im vergangenen Jahr. Den größten Teil mit 65 Prozent machten Bilder der Kategorie A aus. Das ist die extremste – mit Darstellungen von Penetration, Sodomie und Folter. 26.362 Prozent. Um so viel Prozent ist die Anzahl der KI-Missbrauchsbilder mit Kindern gestiegen. In einem einzigen Jahr. Worauf zum Teufel warten wir noch?