La piattaforma di social media X di Elon Musk (ex Twitter) sta prendendo provvedimenti contro i creatori che distribuiscono contenuti generati dall’intelligenza artificiale che raffigurano zone di guerra senza un’adeguata divulgazione. Questa mossa arriva nel mezzo delle crescenti tensioni in Medio Oriente a seguito dei recenti attacchi aerei tra Stati Uniti, Israele e Iran, dove video e immagini non verificati hanno inondato la piattaforma.
Nuove sanzioni per i creatori a pagamento
Nikita Bier, responsabile del prodotto di X, ha annunciato martedì che qualsiasi creatore che partecipa al programma di condivisione delle entrate della piattaforma e condivide contenuti di guerra generati dall’intelligenza artificiale senza etichettarli come tali sarà soggetto a sanzioni. Le prime infrazioni comporteranno una sospensione di tre mesi dal programma, mentre violazioni ripetute potrebbero portare alla rimozione permanente. Il programma di entrate consente ai creatori famosi di guadagnare entrate direttamente dai loro post.
L’obiettivo è chiaro: scoraggiare la diffusione della disinformazione durante i momenti geopolitici critici. X utilizzerà le note della community (correzioni segnalate dall’utente) e gli strumenti di rilevamento dell’intelligenza artificiale per applicare questa politica.
Perché è importante
La capacità di creare filmati di guerra falsi e convincenti utilizzando l’intelligenza artificiale sta crescendo rapidamente. Un recente sondaggio CNET ha rilevato che meno della metà degli adulti statunitensi (44%) è in grado di identificare in modo affidabile immagini e video generati dall’intelligenza artificiale. Ciò è particolarmente pericoloso durante i conflitti, dove la disinformazione può aumentare le tensioni, influenzare l’opinione pubblica o addirittura innescare conseguenze nel mondo reale.
“Durante i tempi di guerra, è fondamentale che le persone abbiano accesso a informazioni autentiche”, ha affermato Bier su X. “Con le tecnologie di intelligenza artificiale di oggi, è banale creare contenuti che possano fuorviare le persone.”
Una soluzione limitata?
I critici sottolineano che la nuova politica prende di mira solo i creatori che guadagnano denaro dalla piattaforma, lasciando intatti coloro che condividono contenuti non verificati al di fuori del programma di entrate. Ciò solleva interrogativi sull’efficacia della repressione: combatterà davvero la disinformazione o si limiterà a punire coloro che sono finanziariamente incentivati dall’impegno?
X non ha chiarito se verranno adottate misure aggiuntive nei confronti degli utenti non pagati che condividono contenuti simili. La società non ha risposto immediatamente a una richiesta di commento.
La mossa segnala una crescente consapevolezza dei pericoli posti dalla disinformazione guidata dall’intelligenza artificiale, ma la sua portata limitata solleva dubbi sul fatto che risolverà davvero il problema. La questione richiede soluzioni più ampie che vanno oltre la semplice penalizzazione dei creatori pagati.





















