Die Künstliche Intelligenz macht es Straftätern leicht, Darstellungen von Kindesmissbrauch zu erzeugen und im Netz zu verbreiten. Die Behörden können kaum mithalten


Die Künstliche Intelligenz erzeugt zu viele Bilder, zu viele Fälle. Die Behörden geraten an ihre Grenzen

Illustration: der Freitag


Wie Netflix. Nur mit Kinderpornos. Das steckt hinter der Plattform mit dem ekelhaften Namen „Kidflix“. Fast zwei Millionen Nutzer:innen weltweit hatte der Streamingdienst im Darknet von April 2022 bis März 2025. Menschen auf der ganzen Welt zahlten dafür wie in einem Abo-Modell bei Netflix. Nur streamten sie dort nicht Bridgerton oder True Crime – sondern Kindesmissbrauch. Das Videomaterial zeigte schwerste Misshandlungen von Babys und Kindern. Jetzt gelang es den international Ermittelnden, die Plattform aufzudecken und abzuschalten. 1.400 Tatverdächtige wurden verhaftet – alles Männer.

Koordiniert wurde die Aktion „Operation Stream“ von Europol. Zuvor war den Cybercrime-Expert:innen von Europol schon ein weiterer Coup gelungen. In de

„Operation Stream“ von Europol. Zuvor war den Cybercrime-Expert:innen von Europol schon ein weiterer Coup gelungen. In der „Operation Cumberland“ Ende Februar wurden 25 Menschen in 19 Ländern wegen Kinderpornografie verhaftet. Das Besondere an diesem Einsatz: Er feiert eine erschreckende Premiere. Denn: Es ist die erste internationale polizeiliche Operation gegen die Verbreitung KI-generierter pornografischer Inhalte. Heißt: Die kinderpornografischen Videos und Bilder in diesem Fall wurden vollständig durch Künstliche Intelligenz (KI) generiert. Hauptverdächtiger ist ein Däne, der die Inhalte per KI erstellte und dann über eine Online-Plattform gegen eine monatliche Zahlung verkaufte. Kostenpunkt: Eine „symbolische Zahlung“ in Höhe eines einstelligen Betrags. Kindesmisshandlung als günstiges Abo-Modell.„KI könnte bei digitalen Missbrauchsabbildungen von Kindern das bestimmende Thema in Zukunft werden“, sagt Prof. Dr. Thomas-Gabriel Rüdiger. Er ist Leiter des Instituts für Cyberkriminologie an der Hochschule der Polizei des Landes Brandenburg. „Es zeichnet sich schon seit einiger Zeit ab, dass KI in allen Kriminalitätsphänomenen eine immer größere Rolle spielt.“ Die rasante technologische Entwicklung im Bereich der künstlichen Intelligenz führt dazu, dass sie sich auch in Bereichen wie der Pädokriminalität verbreitet. Kinderpornografie und KI werden zum wechselseitigen Brandbeschleuniger. Denn: „Sexualisierte Inhalte, vor allem auch illegale, sind ein Treiber technologischer Entwicklungen“.Viermal so viele Fälle in nur einem JahrDie Darstellung von Kindesmissbrauch im Netz war schon vor der KI-Explosion eine der größten Cybercrime-Herausforderungen in der Europäischen Union. Seitdem Midjourney und Co. quasi jedem:jeder auch ohne technische Vorkenntnisse zur Verfügung stehen, boomt die widerliche Sparte umso mehr. Von Deepfakes, also manipulierten Bildern echter Menschen, bis zu komplett KI-generierten Inhalten.Zu sehen gibt es das Ganze längst nicht nur in den digitalen Abgründen des Darknets. Über Social Media-Plattformen wie Instagram und TikTok findet man Unmengen KI-generierter Bilder von Babys und Kindern – in sexualisierten Posen und kaum bekleidet. Künstlich generierte Kinderpornografie – ganz unverhohlen im Open Web. Besorgniserregend ist die Geschwindigkeit, in der sich die Fälle häufen. 2023 erschüttert ein Fall Spanien. Schüler erstellen per KI-App Deepfake-Nacktbilder ihrer Mitschülerinnen und teilen diese in WhatsApp-Gruppen. 22 Mädchen sind betroffen, die jüngste gerade mal 11 Jahre alt. 2024 wird ein Mann in Großbritannien zu 18 Jahren Haft verurteilt. Er hatte per KI aus echten Kinderfotos virtuelle Missbrauchsszenen generiert. Benutzt hat er dafür ganz normale Kinderbilder aus WhatsApp, Instagram und Co. – was einmal mehr verdeutlicht, wie groß das Risiko ist, Bilder von Minderjährigen online zu teilen. Verlangt hat er dafür umgerechnet 96 Euro. Die häufigsten Auftraggeber: Väter, Onkel und Familienfreunde. Allein 2023 vervierfacht sich laut Internet Watch Foundation die Zahl KI-generierter Missbrauchsbilder von Kindern. Innerhalb eines einzigen Jahres. Schlimmer noch: Es nehmen vor allem Bilder der „Kategorie A“ zu – das sind die mit extremsten Missbrauchsdarstellungen. Da geht es um Penetration, sexuelle Handlungen mit Tieren und Sadismus. „KI setzt den Kindesmissbrauch im Netz auf Steroide“ – so äußert sich die britische Innenministerin Yvette Cooper. Dank KI lassen sich Deepfake-Pornos in ein paar Sekunden erstellen. Per App wird das Kind nackt, dann in einer anderen KI-App animiert. Stimm-Generatoren runden die Illusion ab – und fertig ist der künstlich erstellte, aber täuschend echte Kinder-Porno. Das Einsatzgebiet ist grenzenlos.Solche KI-generierten Bilder und Videos werden genutzt, um Menschen zu erpressen. Sie lassen sich lukrativ auf einschlägigen Plattformen verkaufen. Oder dienen der persönlichen Befriedigung. Wird dieses künstlich erstellte Material mit echtem gefüttert, wird den Missbrauchsopfern in der echten Welt damit noch einmal Gewalt angetan. Aber auch bei Inhalten, die ausschließlich KI-generiert sind, wisse man häufig nicht, ob nicht echte Missbrauchsfälle dahinterstecken. Denn der Cyberkriminologe Rüdiger vermutet, „dass die Trainingsdaten auf echten pornografischen Inhalten beruhen“.KI-Flut führt zu explosiver ÜberforderungEine der größten Herausforderungen: Die Grenze zwischen Realität und Fiktion verschwimmt mehr und mehr. „Es wird immer schwieriger, festzustellen, was ein realer Missbrauch ist und was nicht.“ Für die Strafverfolgung ist das ein riesiges Problem. „Die können ja nicht das Risiko eingehen, und wenn es nur bei 0,1 Prozent liegt, dass das Bild nicht vielleicht doch einen echten Missbrauch darstellt.“ Also muss prinzipiell erstmal alles verfolgt werden.Inmitten der Flut an Missbrauchs-Content führt das zu heilloser Überforderung. „Die Sicherheitsbehörden haben jetzt noch weniger Ressourcen für die ohnehin schon vielen Fälle von Kindesmissbrauch“, weiß Rüdiger. Weil sie von Bildern überschwemmt werden, von denen sie erstmal prüfen müssen, ob diese reale Missbrauchsfälle sind. Und selbst wenn nicht: „In Deutschland ist der Besitz von wirklichkeitsnahem Material verboten.“ Weil auch der dazu führe, die Hemmschwelle zu echten Übergriffen zu senken. Also: Auch die rein KI-generierten Darstellungen müssten verfolgt werden. Und das noch zusätzlich zu allen anderen Sparten der Online-Kriminalität. Das ist explosiver Stoff.„Ein Großteil der im Netz erlebten Kriminalität wird gar nicht angezeigt“ meint Rüdiger. „Das fängt an bei strafbaren Phishing-E-Mails, die jeder dritte Internetnutzer in Deutschland täglich bekommt“. Würden davon nur zehn Prozent zur Anzeige gebracht, gäbe es vermutlich eine sechsstellige Anzahl von Strafanzeigen. Pro Tag. Wenn all das auch noch zur Anzeige gebracht würde, plus die rasant steigenden Fälle KI-generierten Missbrauchs plus alles, was sonst an potentiell Strafbarem im WorldWideWeb unterwegs ist, dann sieht es zappenduster aus für die Strafverfolgung. Keine gute Grundlage für die Zukunft mit KI. Für Rüdiger ist klar: „Das wird weiter zunehmen, das werden wir immer häufiger sehen und das wird gleichzeitig auch die Ermittlungsressourcen immer stärker belasten“. Ein Wettkampf gegen die Zeit und die rasante Weiterentwicklung von KIKI bei Missbrauchsbildern ist die (düstere) Zukunft. Davor warnt auch der aktuelle IOCTA-Bericht (Internet Organised Crime Threat Assessment) von Europol. Wie damit umgehen? Es geht um unzählige schutzbedürftige Minderjährige. Um die – bei den rein KI-generierten Inhalten – gefährliche Normalisierung missbräuchlicher Motive. Und es geht auch um die Legitimation rechtsstaatlicher Institutionen. Denn: Wenn man de facto sagt, die Strafverfolgungsbehörden sind dafür nicht mehr zuständig, weil die Ressourcen nicht da sind, stellt sich die Frage des Legalitätsprinzips.Aus Rüdigers Sicht die einzige Alternative: „Es braucht wirksame Technologien, um mit digitaler Massenkriminalität umzugehen“. Dazu sollten auch die Möglichkeiten neuer Technologien genutzt werden. Und: wirksame Gesetzesgrundlagen müssen her. Noch gibt es kaum nationale Gesetze zur Nutzung von KI und Missbrauchsdarstellungen Minderjähriger. Einzelne Länder ändern das gerade. Großbritannien zum Beispiel hat als erstes Land im Februar 2025 einen Gesetzesentwurf vorgestellt.Auch europaweit passiert etwas: Die Europäische Kommission hat einen Vorschlag für eine gemeinsame EU-weite Regulation eingebracht. Zusätzlich werden die strikten Vorgaben für Ermittelnde gelockert, die es den Strafverfolgungsbehörden in der Vergangenheit erschwerten, pädokriminelle Gruppierungen zu infiltrieren und gegen Täter vorzugehen. Höchste Zeit wird es. Ob sie noch reicht? Im März 2025 veröffentlicht die renommierte Cornell University eine Studie: Das GPT-4.5 Modell von OpenAI hat den Turing-Test bestanden, also das vom britischen Mathematiker Alan Turing entwickelte Verfahren, das testet, ob eine Maschine menschenähnliche Intelligenz hat. Das Ergebnis: In 73 Prozent aller Fälle wurde die KI für einen Menschen gehalten. So viel wie noch nie zuvor.



Source link

Von Veritatis

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert