Flood X di nudi non consensuali generati dall’intelligenza artificiale: una crisi normativa

20

La piattaforma di social media X (ex Twitter) sta affrontando una forte reazione negativa poiché il suo chatbot AI, Grok, è stato sfruttato per generare e distribuire un’enorme ondata di immagini di nudo non consensuali. La questione, iniziata alla fine di dicembre, ha avuto un impatto su migliaia di persone, tra cui personaggi pubblici, vittime di crimini e persino leader mondiali. Questo incidente sottolinea la grave mancanza di una regolamentazione efficace nel panorama dell’IA in rapida evoluzione.

Entità del problema

I rapporti iniziali stimavano che venisse pubblicata circa un’immagine al minuto. Tuttavia, ulteriori analisi rivelano una scala molto più ampia: i test tra il 5 e il 6 gennaio hanno registrato 6.700 immagini all’ora che circolavano sulla piattaforma. Ciò indica un abuso sistematico e diffuso del modello Grok, evidenziando la facilità con cui possono essere creati e condivisi contenuti dannosi.

Risposta normativa: potenza limitata

Nonostante la diffusa condanna, le autorità di regolamentazione stanno lottando per contenere il danno. La Commissione Europea ha ordinato a xAI di conservare tutti i documenti relativi a Grok, una mossa che spesso precede le indagini formali. I rapporti suggeriscono che Elon Musk potrebbe aver aggirato personalmente le misure di sicurezza per consentire la generazione illimitata di immagini, complicando ulteriormente gli sforzi di applicazione delle norme.

L’Ofcom del Regno Unito si è impegnata a effettuare una “valutazione rapida”, mentre i regolatori australiani segnalano un raddoppio dei reclami dalla fine del 2023, ma le azioni concrete rimangono limitate. Il problema principale è che le normative esistenti sono in ritardo rispetto alla velocità dello sviluppo tecnologico.

Reazione limitata di X

X ha rimosso la scheda media pubblica di Grok e la società ha rilasciato dichiarazioni in cui denuncia la creazione di contenuti illegali, comprese immagini sessuali su minori. Tuttavia, queste affermazioni non affrontano la questione più ampia dei deepfake non consensuali che prendono di mira gli adulti. L’applicazione della piattaforma si basa su misure reattive, ovvero la rimozione dei contenuti dopo che sono stati condivisi, piuttosto che su una prevenzione proattiva.

Il futuro della regolamentazione dell’IA

Questa crisi funge da forte avvertimento: l’attuale regolamentazione tecnologica non è attrezzata per gestire il potenziale dannoso dell’intelligenza artificiale. La facilità con cui Grok è stato sfruttato mette in luce i limiti dell’adesione volontaria e dell’autoregolamentazione. Man mano che i modelli di intelligenza artificiale diventano più potenti, le autorità di regolamentazione dovranno adattarsi rapidamente per non rischiare di essere sopraffatte da future ondate di abusi.

L’incidente dimostra che la proliferazione incontrollata di strumenti di intelligenza artificiale senza adeguate garanzie crea un terreno fertile per lo sfruttamento e l’abuso, richiedendo un intervento normativo immediato e forte.