Fermare il diluvio: come individuare e ignorare la spazzatura online generata dall’intelligenza artificiale

15

Internet sembra… spento. Che tu sia su TikTok, Facebook o semplicemente effettui una ricerca su Google, un’ondata crescente di contenuti di bassa qualità e realizzati da macchine sta soffocando la vera espressione umana. Questo “trabocchetto dell’intelligenza artificiale”, come viene chiamato, è lo spam dell’era dei social media: post blandi, notizie false e immagini surreali progettate per attirare l’attenzione, non per informare.

Il termine è emerso dallo slang online qualche anno fa, ma ora descrive un problema enorme. Le truffe via e-mail sono state sostituite da output infiniti di intelligenza artificiale a basso sforzo. Il problema non è solo che l’intelligenza artificiale non è in grado di creare; è che troppi lo usano per inondare Internet di riempitivi senza senso.

Cos’è esattamente l’AI Slop?

La parola “slop” originariamente descriveva il mangime per animali a buon mercato. Oggi cattura lo stesso senso di riempitivo di bassa qualità. Lo slop dell’intelligenza artificiale è un contenuto generato rapidamente, con noncuranza e senza riguardo per la precisione. Lo troverai ovunque: narrazioni robotiche di YouTube su filmati rubati, “notizie” scritte dall’intelligenza artificiale copiate da altri siti e clip TikTok con voci stranamente sintetiche. Anche i risultati di ricerca sono inquinati da istruzioni sull’intelligenza artificiale e recensioni di prodotti che spesso mancano di informazioni reali.

Il problema non è che l’intelligenza artificiale sia pessima nel creare cose; si tratta di persone che lo sfruttano per sfornare infiniti contenuti per clic ed entrate pubblicitarie. Come osserva il regista Sean King O’Grady, anche un bambino di 10 anni ora può individuare i falsi. Ma ciò non impedisce la diffusione del contenuto.

Slop dell’intelligenza artificiale contro deepfake e allucinazioni: qual è la differenza?

Slop, deepfake e allucinazioni dell’intelligenza artificiale si confondono tutti insieme, ma le loro intenzioni e qualità differiscono.

  • Deepfake sono falsificazioni di precisione realizzate per ingannare. Alterano in modo convincente il video o l’audio per far sembrare che qualcuno dica o faccia qualcosa che non ha mai fatto. L’obiettivo è la manipolazione deliberata, spesso per ottenere vantaggi politici o finanziari.
  • Le allucinazioni dell’IA sono errori tecnici. I chatbot inventano fatti o casi legali perché prevedono in modo errato la parola successiva. Il modello non cerca di fuorviare; semplicemente fallisce.
  • Lo slop dell’IA è più ampio e meno attento. È la produzione di massa di articoli, video, musica e arte senza verifica dei fatti o coerenza. La sua inesattezza deriva dalla negligenza, non dall’inganno.

In breve: i deepfake ingannano di proposito, le allucinazioni si creano per sbaglio e l’intelligenza artificiale inonda Internet per indifferenza, spesso guidata dall’avidità.

Perché lo slop dell’intelligenza artificiale si diffonde?

La tecnologia dell’intelligenza artificiale è diventata rapidamente economica e potente. Le aziende hanno costruito questi modelli sperando di abbassare le barriere per i creativi, ma invece hanno consentito la creazione di content farm su larga scala. Strumenti come ChatGPT, Gemini e Sora consentono a chiunque di generare testo, immagini e video in pochi secondi. Il risultato è un disordine digitale che intasa i feed e aumenta le entrate pubblicitarie.

Anche le piattaforme giocano un ruolo. Gli algoritmi premiano la quantità rispetto alla qualità. Più pubblichi, più attenzione ricevi, anche se non ha senso. L’intelligenza artificiale rende banale il ridimensionamento di tale strategia. Alcuni creatori pubblicano notizie false sulle celebrità o video clickbait pieni di pubblicità, mentre altri riutilizzano i contenuti dell’intelligenza artificiale per ingannare i consigli e indirizzare il traffico verso siti a basso sforzo. L’obiettivo non è informare; si tratta di racimolare frazioni di centesimo per visualizzazione, moltiplicate per milioni.

Come la scarsa intelligenza artificiale sta rovinando Internet

A prima vista, lo slop sembra innocuo. Alcuni post sbagliati nel tuo feed potrebbero anche essere divertenti. Ma il volume cambia tutto. Respinge le fonti credibili nei risultati di ricerca, esclude i creatori umani e offusca il confine tra verità e falsificazione. Quando metà di ciò che vedi sembra falso, diventa più difficile fidarsi di qualcosa.

Questa erosione della fiducia ha conseguenze reali. La disinformazione si diffonde più velocemente, i truffatori utilizzano l’intelligenza artificiale per impersonare le persone e gli inserzionisti rischiano di danneggiare il marchio apparendo accanto a contenuti di bassa qualità. C’è anche un costo culturale più profondo. O’Grady osserva che la costante esposizione alla violenza e all’assurdità ci desensibilizza nel tempo.

Cosa si può fare?

Non esiste una soluzione rapida, ma alcune aziende ci stanno provando. Spotify etichetta i media generati dall’intelligenza artificiale e piattaforme come Google e TikTok promettono sistemi di filigrana. Tuttavia, questi metodi possono essere facilmente elusi tramite screenshot o riscritture.

Il framework C2PA incorpora i metadati nei file digitali per verificarne l’origine, ma l’adozione è lenta. I creatori si stanno anche opponendo, enfatizzando l’abilità umana e affermando chiaramente quando non è stata utilizzata l’intelligenza artificiale.

Ma alla fine, il problema non scomparirà. Una volta che la produzione di massa di contenuti è diventata quasi gratuita, le porte si sono aperte. L’intelligenza artificiale non si preoccupa della verità o dell’originalità; si preoccupa della probabilità. Ed è per questo che lo slop dell’IA è così facile da realizzare e così difficile da evitare.

La migliore difesa è la consapevolezza. Rallenta, controlla le fonti e premia i creatori che continuano a impegnarsi davvero. Internet ha già combattuto lo spam e la disinformazione. Lo slop dell’intelligenza artificiale è solo l’ultima versione: più veloce, più efficace e più difficile da rilevare. Il fatto che il web mantenga la sua integrità dipende da quanto diamo valore al lavoro umano rispetto al risultato delle macchine.