Künstliche Intelligenz verschärft das Problem von Material zum sexuellen Missbrauch von Kindern (CSAM) im Internet rapide, wobei im Jahr 2025 ein Anstieg von KI-generierten Bildern um 14 % zu verzeichnen ist. Dieser Anstieg stellt für Ermittler eine entscheidende Herausforderung dar, da synthetische Inhalte zunehmend nicht mehr von realen Missbrauchsdarstellungen zu unterscheiden sind. Die Internet Watch Foundation (IWF), eine führende gemeinnützige Organisation auf diesem Gebiet, hat im vergangenen Jahr über 8.000 KI-generierte Bilder und Videos dokumentiert, was die zunehmende Beschleunigung des Problems unterstreicht.
Die steigende Flut synthetischen Missbrauchs
Die IWF identifiziert KI-generierte Inhalte anhand eindeutiger Fehler, Opfermeldungen oder Offenlegungen des Erstellers. Obwohl es immer noch einen kleineren Anteil am gesamten CSAM ausmacht, ist seine Wachstumsrate alarmierend. Der Bericht hebt hervor, dass es sich bei über 3.400 KI-generierten Teilen um Full-Motion-Videos handelte – verstörend realistische Darstellungen, die komplexe Missbrauchsszenarien mit mehreren Personen ermöglichten.
Ein wichtiger Trend ist die zunehmende Schwere von KI-generierten Inhalten: 65 % dieser Videos zeigten extreme Misshandlungen (Vergewaltigung, Folter, Sodomie) im Vergleich zu nur 43 % des Nicht-KI-Materials. Dies deutet darauf hin, dass Täter KI nutzen, um explizitere und komplexere Inhalte zu erstellen, als dies bisher möglich war. Der CEO des IWF, Kerry Smith, warnt, dass diese Technologie „unendliche Verstöße mit beispielloser Leichtigkeit“ ermöglicht.
Wie Täter KI ausnutzen
Die Studie zeigt ein aktives Ökosystem von Straftätern, die KI-Tools im Dark Web entwickeln und teilen. Zu den Diskussionen gehört der Handel mit benutzerdefinierten KI-Modellen und Datenbanken, die darauf ausgelegt sind, missbräuchliches Material zu generieren. Einige bieten auch „benutzerdefinierte Kurse“ an, in denen Benutzer lernen, KI-generierte Bilder von Minderjährigen zu erstellen.
Die Eintrittsbarriere ist erschreckend niedrig: Einige Modelle benötigen nur ein einziges Referenzbild, um CSAM zu erstellen. Während einfachere Inhalte für jedermann zugänglich werden, produzieren erfahrene YouTuber längere, anspruchsvollere Missbrauchsvideos. Einem YouTuber wurde über 3.000 Mal für ein 30-minütiges KI-generiertes Video gedankt.
Die Grenzen der Nachweisbarkeit und die Notwendigkeit einer Regulierung
Das IWF räumt ein, dass seine Ergebnisse nur eine teilweise Sicht auf das Problem darstellen, da Analysten der Zugriff auf verschlüsselte Bereiche oder Inhalte hinter Paywalls untersagt ist. Das tatsächliche Ausmaß von KI-generiertem CSAM ist wahrscheinlich weitaus größer.
Der Bericht fordert die Europäische Union nachdrücklich auf, ein europaweites Verbot von KI-generierten Missbrauchsinhalten und der zu ihrer Erstellung verwendeten Tools einzuführen, einschließlich des Verbots personalisierter, nicht geteilter Inhalte. Smith argumentiert, dass dies ein „Mindeststandard ohne Ausnahmen“ sein sollte.
Der Gesetzgeber hat die ePrivacy-Richtlinie vorerst verlängert und so Zeit für die Schaffung langfristiger rechtlicher Rahmenbedingungen gewonnen. Sie bestehen jedoch darauf, dass die Maßnahmen verhältnismäßig sein und sich auf gekennzeichnete Inhalte und nicht auf Massenüberwachung konzentrieren müssen. Die IWF strebt außerdem eine Änderung des EU-KI-Gesetzes an, um Systeme, die CSAM erzeugen können, als „hohes Risiko“ einzustufen und sie strengen Tests zu unterziehen.
Diese wachsende Krise erfordert dringendes Handeln. Die Fähigkeit der KI, die Ausbeutung von Kindern schnell auszuweiten und zu intensivieren, erfordert eine umfassende regulatorische Reaktion, die Sicherheit und Privatsphäre in Einklang bringt. Ohne Intervention wird die Verbreitung synthetischer Missbrauchsbilder weiterhin bestehende Gegenmaßnahmen überfordern.





















