Surtos de imagens de abuso infantil geradas por IA: uma ameaça crescente à segurança online

17

A inteligência artificial está agravando rapidamente o problema do material de abuso sexual infantil (CSAM) online, com um aumento relatado de 14% nas imagens geradas por IA em 2025. Este aumento representa um desafio crítico para os investigadores, à medida que o conteúdo sintético se torna cada vez mais indistinguível das representações de abusos na vida real. A Internet Watch Foundation (IWF), uma organização sem fins lucrativos líder neste campo, documentou mais de 8.000 imagens e vídeos gerados por IA no ano passado, sublinhando a natureza acelerada do problema.

A crescente onda de abuso sintético

A IWF identifica conteúdo gerado por IA por meio de erros claros, relatos de vítimas ou divulgações do criador. Embora ainda represente uma parcela menor do total de CSAM, a sua taxa de crescimento é alarmante. O relatório destaca que mais de 3.400 peças geradas por IA eram vídeos em movimento total – representações perturbadoramente realistas que permitiam cenários complexos de abuso entre várias pessoas.

Uma tendência importante é a crescente severidade do conteúdo gerado por IA: 65% desses vídeos retratavam abusos extremos (estupro, tortura, bestialidade) contra apenas 43% de material sem IA. Isto sugere que os perpetradores estão a aproveitar a IA para criar conteúdos mais explícitos e complexos do que era possível anteriormente. O CEO da IWF, Kerry Smith, alerta que esta tecnologia permite “violações infinitas com uma facilidade sem precedentes”.

Como os perpetradores exploram a IA

O estudo revela um ecossistema ativo de infratores desenvolvendo e compartilhando ferramentas de IA na dark web. As discussões incluem a negociação de modelos de IA personalizados e bancos de dados projetados para gerar material abusivo, com alguns oferecendo “cursos personalizados” ensinando os usuários a criar imagens de menores geradas por IA.

A barreira de entrada é surpreendentemente baixa: alguns modelos requerem apenas uma única imagem de referência para produzir CSAM. Embora conteúdos mais simples estejam se tornando acessíveis a qualquer pessoa, criadores qualificados estão produzindo vídeos de abuso mais longos e sofisticados. Um criador recebeu mais de 3.000 agradecimentos por um vídeo de 30 minutos gerado por IA.

Os limites da detecção e a necessidade de regulamentação

A IWF reconhece que as suas conclusões representam apenas uma visão parcial do problema, uma vez que os analistas estão impedidos de aceder a espaços encriptados ou a conteúdos atrás de acessos pagos. A verdadeira escala do CSAM gerado por IA é provavelmente muito maior.

O relatório insta a União Europeia a implementar uma proibição em todo o bloco de conteúdos abusivos gerados por IA e das ferramentas utilizadas para os criar, incluindo a proibição de conteúdos personalizados e não partilhados. Smith argumenta que este deveria ser um “padrão mínimo sem exceções”.

Os legisladores prorrogaram, por enquanto, a Diretiva Privacidade Eletrónica, dando tempo para estabelecer quadros jurídicos a longo prazo. No entanto, insistem que as medidas devem ser proporcionais e centrar-se nos conteúdos sinalizados e não na vigilância em massa. A IWF também procura alterar a Lei da UE sobre IA para classificar os sistemas capazes de gerar CSAM como de “alto risco”, submetendo-os a testes rigorosos.

Esta crise crescente exige uma ação urgente. A capacidade da IA ​​de escalar e intensificar rapidamente a exploração infantil exige uma resposta regulatória abrangente que equilibre a segurança com a privacidade. Sem intervenção, a proliferação de imagens sintéticas de abuso continuará a sobrecarregar as contramedidas existentes.