De huidige waanzin rond kunstmatige intelligentie, waarbij tech-CEO’s superintelligentie in 2026 voorspellen en doorbraken in de verlenging van de levensduur, berust op een fundamentele tekortkoming: de verkeerde overtuiging dat geavanceerde taalmodellering gelijk staat aan echte intelligentie. Hoewel krachtige AI-tools zoals ChatGPT en Gemini indrukwekkend zijn, werken ze volgens een principe dat fundamenteel verschilt van het menselijk denken – en het verder opschalen van deze systemen zal die kloof niet op magische wijze kunnen overbruggen.
De illusie van intelligentie
De kern van de huidige AI-boom ligt in ‘grote taalmodellen’ (LLM’s). Deze systemen blinken uit in het identificeren van statistische correlaties binnen enorme datasets met tekst, waardoor ze de meest waarschijnlijke output kunnen voorspellen zodra er een prompt wordt gegeven. In wezen zijn het geavanceerde machines voor het matchen van patronen, en geen denkende entiteiten. Dit is een cruciaal onderscheid. De neurowetenschappen laten duidelijk zien dat het menselijk denken grotendeels onafhankelijk is van taal; we gebruiken taal om gedachten over te brengen, maar taal is niet hetzelfde als het denken zelf.
De hype suggereert dat we, door simpelweg meer gegevens in steeds krachtigere computers (met name Nvidia-chips) te voeren, ‘kunstmatige algemene intelligentie’ (AGI) zullen bereiken – een AI die elke intellectuele taak kan uitvoeren die een mens ook kan. Deze veronderstelling is echter wetenschappelijk twijfelachtig. LLM’s zijn hulpmiddelen voor het emuleren van communicatie, en niet voor het repliceren van de verschillende cognitieve processen van denken en redeneren.
Taal: een hulpmiddel, niet de bron van het denken
Recent onderzoek in de neurowetenschappen bevestigt dit. Een studie uit 2023, gepubliceerd in Nature door Fedorenko, Piantadosi en Gibson, onderstreepte dat taal in de eerste plaats een communicatiemiddel is, en geen voorwaarde voor nadenken. Mensen met ernstige taalproblemen kunnen nog steeds bezig zijn met complex redeneren, probleemoplossing en zelfs formele logica. Beeldvorming van de hersenen laat zien dat cognitieve activiteiten andere neurale netwerken activeren dan de netwerken die voor taalverwerking worden gebruikt.
Neem een baby: lang voordat de taal zich ontwikkelt, verkennen, leren en vormen baby’s theorieën over de wereld door middel van observatie en experimenten. Ze denken zonder taal, wat aantoont dat cognitie voorafgaat aan en onafhankelijk bestaat van taalvaardigheid. Dit is geen speculatie; het is waarneembare realiteit.
De efficiëntie van communicatie, niet van creatie
Menselijke talen zijn geëvolueerd met het oog op efficiëntie: ze zijn ontworpen om ideeën duidelijk en beknopt over te brengen. Dit verklaart waarom verschillende talen gemeenschappelijke kenmerken delen, waarbij prioriteit wordt gegeven aan het gemak van productie, leren en begrijpen. Taal verbetert de cognitie door de uitwisseling van kennis te vergemakkelijken, maar het creëert die kennis niet.
Neem de taal weg, en we kunnen nog steeds denken, redeneren en de wereld ervaren. Als je de taal uit een LLM verwijdert, vervalt deze in zinloosheid. De AI kan alleen opereren binnen de grenzen van de gegevens waarop hij is getraind; het kan geen werkelijk nieuwe gedachten voortbrengen.
De grenzen van schaalvergroting
Zelfs sommigen binnen de AI-industrie erkennen deze beperking. Yann LeCun, een vooraanstaand AI-onderzoeker, heeft onlangs Meta verlaten om een startup op te richten die zich richt op ‘wereldmodellen’: systemen die zijn ontworpen om de fysieke wereld te begrijpen door middel van persistent geheugen en planning, in plaats van alleen maar taal. Andere experts definiëren AGI nu niet als opschaling van taalmodellen, maar als het repliceren van de ‘cognitieve veelzijdigheid en vaardigheid van een goed opgeleide volwassene’.
Maar zelfs deze meer genuanceerde benadering wordt geconfronteerd met een fundamenteel probleem. Een AI die de menselijke cognitie nauwkeurig kan simuleren, mist nog steeds het vermogen voor echte paradigmaverschuivingen. Echte wetenschappelijke doorbraken komen niet voort uit iteratieve data-analyse; ze komen voort uit ontevredenheid over bestaande raamwerken, uit het vermogen om ideeën te bedenken die het huidige begrip overstijgen.
De dode-metafoormachine
Zoals filosoof Richard Rorty betoogde, komt vooruitgang vaak voort uit het terzijde schuiven van ‘dode metaforen’ – ouderwetse denkwijzen die ons niet langer dienen. AI-systemen zijn door hun aard niet in staat tot dit soort creatieve ontevredenheid. Ze kunnen bestaande kennis remixen, maar ze kunnen geen werkelijk nieuwe paradigma’s genereren omdat ze gevangen zitten in het vocabulaire van hun trainingsgegevens.
Concluderend: hoewel AI ongetwijfeld zal blijven verbeteren in de taken waarvoor het is ontworpen, blijft de belofte van superintelligentie een wetenschappelijke fantasie. Menselijke intelligentie gaat niet over het verwerken van gegevens; het gaat over het vermogen tot origineel denken, gedreven door nieuwsgierigheid, ontevredenheid en het vermogen om zich voor te stellen wat nog niet bestaat. Dat is iets wat geen enkel taalmodel, hoe groot ook, kan repliceren.































