L’attuale frenesia che circonda l’intelligenza artificiale, con i CEO del settore tecnologico che prevedono una superintelligenza entro il 2026 e scoperte rivoluzionarie nell’estensione della durata della vita, si basa su un difetto fondamentale: l’errata convinzione che la modellazione linguistica avanzata equivalga alla vera intelligenza. Sebbene i potenti strumenti di intelligenza artificiale come ChatGPT e Gemini siano impressionanti, funzionano secondo un principio fondamentalmente diverso dal pensiero umano – e l’ulteriore ridimensionamento di questi sistemi non colmerà magicamente questo divario.
L’illusione dell’intelligenza
Il nucleo dell’attuale boom dell’intelligenza artificiale risiede nei “grandi modelli linguistici” (LLM). Questi sistemi eccellono nell’identificare correlazioni statistiche all’interno di enormi set di dati di testo, consentendo loro di prevedere l’output più probabile quando richiesto. In sostanza, sono sofisticate macchine per la ricerca di modelli, non entità pensanti. Questa è una distinzione fondamentale. Le neuroscienze dimostrano chiaramente che il pensiero umano è in gran parte indipendente dal linguaggio; usiamo il linguaggio per comunicare il pensiero, ma il linguaggio non è la stessa cosa del pensiero stesso.
L’hype suggerisce che semplicemente inserendo più dati in computer sempre più potenti (chip Nvidia, in particolare), raggiungeremo l’”intelligenza artificiale generale” (AGI), un’intelligenza artificiale in grado di eseguire qualsiasi compito intellettuale che un essere umano può eseguire. Tuttavia, questa ipotesi è scientificamente dubbia. Gli LLM sono strumenti per emulare la comunicazione, non per replicare i distinti processi cognitivi del pensiero e del ragionamento.
Linguaggio: uno strumento, non la fonte del pensiero
Lo confermano recenti ricerche nel campo delle neuroscienze. Uno studio del 2023 pubblicato su Nature da Fedorenko, Piantadosi e Gibson ha sottolineato che il linguaggio è principalmente uno strumento di comunicazione, non un prerequisito per il pensiero. Gli individui con gravi disabilità linguistiche possono ancora impegnarsi in ragionamenti complessi, nella risoluzione di problemi e persino nella logica formale. L’imaging cerebrale mostra che le attività cognitive attivano reti neurali separate da quelle utilizzate per l’elaborazione del linguaggio.
Consideriamo un bambino: molto prima che si sviluppi il linguaggio, i bambini esplorano, apprendono e formano teorie sul mondo attraverso l’osservazione e la sperimentazione. Pensano senza linguaggio, dimostrando che la cognizione precede ed esiste indipendentemente dall’abilità linguistica. Questa non è una speculazione; è una realtà osservabile.
L’efficienza della comunicazione, non della creazione
I linguaggi umani si sono evoluti per ragioni di efficienza: sono progettati per trasmettere idee in modo chiaro e conciso. Ciò spiega perché lingue diverse condividono caratteristiche comuni che danno priorità alla facilità di produzione, apprendimento e comprensione. Il linguaggio migliora la cognizione facilitando lo scambio di conoscenze, ma non crea quella conoscenza.
Togliete il linguaggio e potremo ancora pensare, ragionare e sperimentare il mondo. Rimuovi la lingua da un LLM e crollerà nell’insensatezza. L’intelligenza artificiale può operare solo entro i confini dei dati su cui è addestrata; non può generare un pensiero veramente nuovo.
I limiti della scalabilità
Anche alcuni nel settore dell’intelligenza artificiale riconoscono questa limitazione. Yann LeCun, uno dei principali ricercatori sull’intelligenza artificiale, ha recentemente lasciato Meta per fondare una startup focalizzata sui “modelli mondiali” – sistemi progettati per comprendere il mondo fisico attraverso la memoria persistente e la pianificazione, piuttosto che solo il linguaggio. Altri esperti ora definiscono l’AGI non come un modello linguistico in scala, ma come la replica della “versatilità cognitiva e della competenza di un adulto ben istruito”.
Tuttavia, anche questo approccio più sfumato deve affrontare un problema fondamentale. Un’intelligenza artificiale in grado di simulare accuratamente la cognizione umana non ha ancora la capacità di realizzare autentici cambiamenti di paradigma. Le vere scoperte scientifiche non emergono dall’analisi iterativa dei dati; nascono dall’insoddisfazione per i quadri esistenti, dalla capacità di concepire idee che trascendono la comprensione attuale.
La macchina della metafora morta
Come sosteneva il filosofo Richard Rorty, il progresso spesso deriva dall’abbandono delle “metafore morte” – modi di pensare obsoleti che non ci servono più. I sistemi di intelligenza artificiale, per loro stessa natura, sono incapaci di questo tipo di insoddisfazione creativa. Possono rimescolare la conoscenza esistente, ma non possono generare paradigmi veramente nuovi perché sono intrappolati nel vocabolario dei dati di formazione.
In conclusione, anche se l’intelligenza artificiale continuerà senza dubbio a migliorare nei compiti per cui è stata progettata, la promessa della superintelligenza rimane una fantasia scientifica. L’intelligenza umana non riguarda l’elaborazione dei dati; si tratta della capacità di pensiero originale, guidato dalla curiosità, dall’insoddisfazione e dalla capacità di immaginare ciò che ancora non esiste. Questo è qualcosa che nessun modello linguistico, non importa quanto grande, può replicare.
































