Aumento de imágenes de abuso infantil generadas por IA: una amenaza creciente para la seguridad en línea

9

La inteligencia artificial está exacerbando rápidamente el problema del material de abuso sexual infantil (CSAM) en línea, con un aumento del 14 % en las imágenes generadas por IA en 2025. Este aumento presenta un desafío crítico para los investigadores, ya que el contenido sintético se vuelve cada vez más indistinguible de las representaciones de abusos en la vida real. La Internet Watch Foundation (IWF), una organización sin fines de lucro líder en este campo, documentó más de 8.000 imágenes y videos generados por IA el año pasado, lo que subraya la naturaleza acelerada del problema.

La creciente ola de abuso sintético

La IWF identifica el contenido generado por IA a través de errores claros, informes de víctimas o divulgaciones de creadores. Si bien sigue siendo una porción menor del total de CSAM, su tasa de crecimiento es alarmante. El informe destaca que más de 3.400 piezas generadas por IA eran vídeos en movimiento completo: representaciones inquietantemente realistas que permitían escenarios complejos de abuso de varias personas.

Una tendencia clave es la creciente gravedad del contenido generado por IA: 65% de estos videos mostraban abuso extremo (violación, tortura, bestialidad) versus solo el 43% del material que no es de IA. Esto sugiere que los perpetradores están aprovechando la IA para crear contenido más explícito y complejo de lo que antes era posible. El director general de la IWF, Kerry Smith, advierte que esta tecnología permite “infinitas violaciones con una facilidad sin precedentes”.

Cómo los perpetradores explotan la IA

El estudio revela un ecosistema activo de delincuentes que desarrollan y comparten herramientas de inteligencia artificial en la web oscura. Las discusiones incluyen el comercio de modelos de IA personalizados y bases de datos diseñadas para generar material abusivo, y algunos ofrecen “cursos personalizados” que enseñan a los usuarios a crear imágenes de menores generadas por IA.

La barrera de entrada es sorprendentemente baja: algunos modelos requieren solo una imagen de referencia para producir CSAM. Si bien el contenido más simple se vuelve accesible para todos, los creadores expertos están produciendo videos de abusos más largos y sofisticados. Un creador recibió más de 3000 gracias por un vídeo de 30 minutos generado por IA.

Los límites de la detección y la necesidad de regulación

La IWF reconoce que sus hallazgos representan sólo una visión parcial del problema, ya que los analistas tienen restringido el acceso a espacios cifrados o contenido detrás de muros de pago. Es probable que la verdadera escala del CSAM generado por IA sea mucho mayor.

El informe insta a la Unión Europea a implementar una prohibición en todo el bloque del contenido abusivo generado por IA y las herramientas utilizadas para crearlo, incluida la prohibición de contenido personalizado y no compartido. Smith sostiene que este debería ser un “estándar mínimo sin excepciones”.

Los legisladores han ampliado la Directiva de privacidad electrónica por ahora, dando tiempo para establecer marcos legales a largo plazo. Sin embargo, insisten en que las medidas deben ser proporcionales y centrarse en el contenido marcado, no en la vigilancia masiva. La IWF también busca modificar la Ley de IA de la UE para clasificar los sistemas capaces de generar CSAM como de “alto riesgo”, sometiéndolos a pruebas rigurosas.

Esta creciente crisis exige una acción urgente. La capacidad de la IA para escalar e intensificar rápidamente la explotación infantil requiere una respuesta regulatoria integral que equilibre la seguridad con la privacidad. Sin intervención, la proliferación de imágenes sintéticas de abuso seguirá superando las contramedidas existentes.

Попередня статтяCauldron Ferm: Ampliación de la producción microbiana con fermentación continua