Augmentation des images de maltraitance d’enfants générées par l’IA : une menace croissante pour la sécurité en ligne

2

L’intelligence artificielle exacerbe rapidement le problème des contenus pédopornographiques en ligne, avec une augmentation de 14 % des images générées par l’IA en 2025. Cette augmentation représente un défi crucial pour les enquêteurs, car le contenu synthétique devient de plus en plus impossible à distinguer des représentations réelles d’abus. L’Internet Watch Foundation (IWF), une organisation à but non lucratif de premier plan dans ce domaine, a documenté plus de 8 000 images et vidéos générées par l’IA au cours de l’année écoulée, soulignant la nature accélérée du problème.

La marée montante des abus synthétiques

L’IWF identifie le contenu généré par l’IA grâce à des erreurs claires, des rapports de victimes ou des divulgations des créateurs. Bien qu’il s’agisse d’une part encore plus petite du total des CSAM, son taux de croissance est alarmant. Le rapport souligne que plus de 3 400 pièces générées par l’IA étaient des vidéos animées – des représentations d’un réalisme troublant permettant des scénarios complexes d’abus impliquant plusieurs personnes.

Une tendance clé est la sévérité croissante du contenu généré par l’IA : 65 % de ces vidéos montraient des abus extrêmes (viol, torture, bestialité) contre seulement 43 % du contenu non-IA. Cela suggère que les auteurs exploitent l’IA pour créer un contenu plus explicite et plus complexe qu’auparavant. Le PDG de l’IWF, Kerry Smith, prévient que cette technologie permet « des violations infinies avec une facilité sans précédent ».

Comment les auteurs exploitent l’IA

L’étude révèle un écosystème actif de délinquants développant et partageant des outils d’IA sur le dark web. Les discussions incluent l’échange de modèles d’IA personnalisés et de bases de données conçues pour générer du matériel abusif, certains proposant des « cours personnalisés » apprenant aux utilisateurs à créer des images de mineurs générées par l’IA.

La barrière à l’entrée est incroyablement faible : certains modèles ne nécessitent qu’une seule image de référence pour produire du CSAM. Alors que des contenus plus simples deviennent accessibles à tous, des créateurs expérimentés produisent des vidéos d’abus plus longues et plus sophistiquées. Un créateur a été remercié plus de 3 000 fois pour une vidéo de 30 minutes générée par l’IA.

Les limites de la détection et la nécessité d’une régulation

L’IWF reconnaît que ses conclusions ne représentent qu’une vision partielle du problème, dans la mesure où les analystes ne peuvent pas accéder aux espaces cryptés ou au contenu derrière des paywalls. L’ampleur réelle du CSAM généré par l’IA est probablement bien plus grande.

Le rapport exhorte l’Union européenne à mettre en œuvre une interdiction à l’échelle du bloc des contenus abusifs générés par l’IA et des outils utilisés pour les créer, notamment en interdisant les contenus personnalisés et non partagés. Smith soutient que cela devrait être une « norme minimale sans exception ».

Les législateurs ont pour l’instant prolongé la directive ePrivacy, ce qui laisse le temps d’établir des cadres juridiques à long terme. Cependant, ils insistent sur le fait que les mesures doivent être proportionnelles et se concentrer sur les contenus signalés, et non sur la surveillance de masse. L’IWF cherche également à modifier la loi de l’UE sur l’IA pour classer les systèmes capables de générer des CSAM comme « à haut risque », en les soumettant à des tests rigoureux.

Cette crise croissante exige une action urgente. La capacité de l’IA à développer et à intensifier rapidement l’exploitation des enfants nécessite une réponse réglementaire globale qui équilibre la sécurité et la vie privée. Sans intervention, la prolifération d’images synthétiques d’abus continuera à submerger les contre-mesures existantes.

Попередня статтяCauldron Ferm : production microbienne à grande échelle avec fermentation continue