Aumentano le immagini di abusi sui minori generate dall’intelligenza artificiale: una minaccia crescente per la sicurezza online

11

L’intelligenza artificiale sta rapidamente esacerbando il problema del materiale pedopornografico online, con un aumento del 14% delle immagini generate dall’intelligenza artificiale nel 2025. Questa ondata rappresenta una sfida critica per gli investigatori, poiché i contenuti sintetici diventano sempre più indistinguibili dalle rappresentazioni di abusi nella vita reale. La Internet Watch Foundation (IWF), una delle principali organizzazioni no-profit in questo campo, ha documentato oltre 8.000 immagini e video generati dall’intelligenza artificiale nell’ultimo anno, sottolineando la natura sempre più rapida del problema.

La marea montante dell’abuso sintetico

L’IWF identifica i contenuti generati dall’intelligenza artificiale attraverso errori evidenti, segnalazioni di vittime o divulgazioni dei creatori. Pur rappresentando ancora una quota più piccola del totale del CSAM, il suo tasso di crescita è allarmante. Il rapporto evidenzia che oltre 3.400 pezzi generati dall’intelligenza artificiale erano video in full-motion: rappresentazioni inquietantemente realistiche che consentono scenari di abuso complessi e tra più persone.

Una tendenza chiave è la crescente gravità dei contenuti generati dall’intelligenza artificiale: il 65% di questi video raffigurava abusi estremi (stupro, tortura, bestialità) contro solo il 43% del materiale non generato dall’intelligenza artificiale. Ciò suggerisce che gli autori dei reati stiano sfruttando l’intelligenza artificiale per creare contenuti più espliciti e complessi di quanto possibile in precedenza. Il CEO dell’IWF, Kerry Smith, avverte che questa tecnologia consente “infinite violazioni con una facilità senza precedenti”.

Come gli autori di reati sfruttano l’intelligenza artificiale

Lo studio rivela un ecosistema attivo di autori di reato che sviluppano e condividono strumenti di intelligenza artificiale sul dark web. Le discussioni includono lo scambio di modelli e database di intelligenza artificiale personalizzati progettati per generare materiale offensivo, con alcuni che offrono “corsi personalizzati” che insegnano agli utenti a creare immagini di minori generate dall’intelligenza artificiale.

La barriera all’ingresso è sorprendentemente bassa: alcuni modelli richiedono solo una singola immagine di riferimento per produrre CSAM. Mentre i contenuti più semplici stanno diventando accessibili a chiunque, creatori esperti stanno producendo video di abusi più lunghi e sofisticati. Un creatore è stato ringraziato più di 3.000 volte per un video di 30 minuti generato dall’intelligenza artificiale.

I limiti di rilevamento e la necessità di regolamentazione

L’IWF riconosce che i suoi risultati rappresentano solo una visione parziale del problema, poiché agli analisti è vietato accedere a spazi o contenuti crittografati dietro i paywall. La reale portata del materiale pedopornografico generato dall’intelligenza artificiale è probabilmente molto maggiore.

Il rapporto sollecita l’Unione Europea ad attuare un divieto a livello di blocco dei contenuti abusivi generati dall’intelligenza artificiale e degli strumenti utilizzati per crearli, compreso il divieto di contenuti personalizzati e non condivisi. Smith sostiene che questo dovrebbe essere uno “standard minimo senza eccezioni”.

Per ora i legislatori hanno esteso la Direttiva ePrivacy, dando tempo per stabilire quadri giuridici a lungo termine. Tuttavia, insistono che le misure debbano essere proporzionali e concentrarsi sui contenuti segnalati, non sulla sorveglianza di massa. L’IWF cerca inoltre di modificare l’EU AI Act per classificare i sistemi in grado di generare materiale pedopornografico come “ad alto rischio”, sottoponendoli a test rigorosi.

Questa crisi crescente richiede un’azione urgente. La capacità dell’intelligenza artificiale di ampliare e intensificare rapidamente lo sfruttamento minorile richiede una risposta normativa globale che concilia la sicurezza con la privacy. Senza intervento, la proliferazione di immagini sintetiche di abuso continuerà a sopraffare le contromisure esistenti.

Попередня статтяCauldron Ferm: ridimensionamento della produzione microbica con la fermentazione continua