Kunstmatige intelligentie verergert het probleem van materiaal over seksueel misbruik van kinderen online snel, met een gerapporteerde 14% toename van door AI gegenereerde beelden in 2025. Deze golf vormt een cruciale uitdaging voor onderzoekers, omdat synthetische inhoud steeds minder te onderscheiden is van afbeeldingen van misbruik in het echte leven. De Internet Watch Foundation (IWF), een toonaangevende non-profitorganisatie op dit gebied, heeft het afgelopen jaar ruim 8.000 door AI gegenereerde afbeeldingen en video’s gedocumenteerd, wat de steeds snellere aard van het probleem onderstreept.
Het opkomende tij van synthetisch misbruik
De IWF identificeert door AI gegenereerde inhoud aan de hand van duidelijke fouten, slachtofferrapporten of openbaarmakingen van de maker. Hoewel het nog steeds een kleiner deel van de totale CSAM uitmaakt, is de groei ervan alarmerend. Het rapport benadrukt dat meer dan 3.400 door AI gegenereerde stukken full-motion video’s waren – verontrustend realistische afbeeldingen die complexe misbruikscenario’s voor meerdere personen mogelijk maken.
Een belangrijke trend is de toenemende ernst van door AI gegenereerde inhoud: 65% van deze video’s beeldde extreem misbruik af (verkrachting, marteling, bestialiteit) tegenover slechts 43% van het niet-AI-materiaal. Dit suggereert dat daders AI gebruiken om explicietere en complexere inhoud te creëren dan voorheen mogelijk was. De CEO van het IWF, Kerry Smith, waarschuwt dat deze technologie “oneindige schendingen met ongekend gemak” mogelijk maakt.
Hoe daders AI exploiteren
Het onderzoek onthult een actief ecosysteem van overtreders die AI-tools ontwikkelen en delen op het dark web. Discussies omvatten onder meer het verhandelen van aangepaste AI-modellen en databases die zijn ontworpen om beledigend materiaal te genereren, waarbij sommige “cursussen op maat” aanbieden die gebruikers leren om door AI gegenereerde afbeeldingen van minderjarigen te maken.
De toetredingsdrempel is schrikbarend laag: sommige modellen hebben slechts één referentiebeeld nodig om CSAM te produceren. Terwijl eenvoudigere inhoud voor iedereen toegankelijk wordt, produceren ervaren videomakers langere, geavanceerdere misbruikvideo’s. Eén maker werd meer dan 3000 keer bedankt voor een door AI gegenereerde video van 30 minuten.
De grenzen van detectie en de noodzaak van regulering
Het IWF erkent dat zijn bevindingen slechts een gedeeltelijk beeld van het probleem geven, omdat analisten geen toegang hebben tot gecodeerde ruimtes of inhoud achter betaalmuren. De werkelijke omvang van door AI gegenereerde CSAM is waarschijnlijk veel groter.
Het rapport dringt er bij de Europese Unie op aan om een blokbreed verbod in te voeren op door AI gegenereerde misbruikinhoud en de instrumenten die worden gebruikt om deze te creëren, inclusief het verbieden van gepersonaliseerde, niet-gedeelde inhoud. Smith stelt dat dit een “minimumnorm zonder uitzonderingen” zou moeten zijn.
Wetgevers hebben de e-privacyrichtlijn voorlopig verlengd, waardoor er tijd is om wettelijke kaders voor de lange termijn vast te stellen. Ze benadrukken echter dat de maatregelen proportioneel moeten zijn en zich moeten richten op gemarkeerde inhoud, en niet op massale surveillance. De IWF wil ook de EU AI-wet wijzigen om systemen die CSAM kunnen genereren te classificeren als “hoog risico”, door ze aan strenge tests te onderwerpen.
Deze groeiende crisis vereist dringend actie. Het vermogen van AI om de uitbuiting van kinderen snel op te schalen en te intensiveren vereist een alomvattend regelgevend antwoord dat veiligheid en privacy in evenwicht brengt. Zonder tussenkomst zal de verspreiding van beelden van synthetisch misbruik de bestaande tegenmaatregelen blijven overweldigen.





















