Der aktuelle Hype um künstliche Intelligenz, bei dem Tech-CEOs Superintelligenz bis 2026 und Durchbrüche bei der Verlängerung der Lebensdauer vorhersagen, beruht auf einem grundlegenden Fehler: der falschen Annahme, dass fortgeschrittene Sprachmodellierung mit echter Intelligenz gleichzusetzen ist. Obwohl leistungsstarke KI-Tools wie ChatGPT und Gemini beeindruckend sind, basieren sie auf einem Prinzip, das sich grundlegend vom menschlichen Denken unterscheidet – und eine weitere Skalierung dieser Systeme wird diese Lücke nicht auf magische Weise schließen.
Die Illusion der Intelligenz
Der Kern des heutigen KI-Booms liegt in „großen Sprachmodellen“ (LLMs). Diese Systeme zeichnen sich durch die Identifizierung statistischer Korrelationen innerhalb riesiger Textdatensätze aus und ermöglichen es ihnen, bei einer Eingabeaufforderung die wahrscheinlichste Ausgabe vorherzusagen. Im Wesentlichen handelt es sich dabei um hochentwickelte Mustererkennungsmaschinen und nicht um denkende Wesen. Dies ist eine entscheidende Unterscheidung. Die Neurowissenschaft zeigt deutlich, dass das menschliche Denken weitgehend unabhängig von der Sprache ist; Wir benutzen Sprache, um Gedanken zu kommunizieren, aber Sprache ist nicht dasselbe wie Denken selbst.
Der Hype deutet darauf hin, dass wir durch die einfache Einspeisung von mehr Daten in immer leistungsfähigere Computer (insbesondere Nvidia-Chips) eine „künstliche allgemeine Intelligenz“ (AGI) erreichen werden – eine KI, die jede intellektuelle Aufgabe eines Menschen ausführen kann. Allerdings ist diese Annahme wissenschaftlich zweifelhaft. LLMs sind Werkzeuge zur Nachahmung der Kommunikation und nicht zur Nachbildung der unterschiedlichen kognitiven Prozesse des Denkens und Denkens.
Sprache: Ein Werkzeug, nicht die Quelle des Denkens
Aktuelle neurowissenschaftliche Forschungen bestätigen dies. Eine 2023 in Nature veröffentlichte Studie von Fedorenko, Piantadosi und Gibson unterstreicht, dass Sprache in erster Linie ein Kommunikationsmittel und keine Voraussetzung für das Denken ist. Personen mit schweren sprachlichen Beeinträchtigungen können sich immer noch mit komplexem Denken, Problemlösen und sogar formaler Logik beschäftigen. Die Bildgebung des Gehirns zeigt, dass kognitive Aktivitäten andere neuronale Netzwerke aktivieren als diejenigen, die für die Sprachverarbeitung verwendet werden.
Stellen Sie sich ein Baby vor: Lange bevor sich die Sprache entwickelt, erforschen, lernen und bilden Säuglinge durch Beobachtung und Experimente Theorien über die Welt. Sie denken ohne Sprache und zeigen, dass die Erkenntnis sprachlichen Fähigkeiten vorausgeht und unabhängig davon existiert. Das ist keine Spekulation; es ist beobachtbare Realität.
Die Effizienz der Kommunikation, nicht der Schöpfung
Menschliche Sprachen wurden aus Effizienzgründen entwickelt: Sie sind darauf ausgelegt, Ideen klar und prägnant zu vermitteln. Dies erklärt, warum verschiedene Sprachen gemeinsame Merkmale aufweisen, bei denen die einfache Produktion, das Lernen und das Verstehen im Vordergrund stehen. Sprache verbessert die Wahrnehmung, indem sie den Wissensaustausch erleichtert, aber sie schafft dieses Wissen nicht.
Wenn wir die Sprache weglassen, können wir immer noch denken, argumentieren und die Welt erleben. Entfernen Sie die Sprache aus einem LLM, und es verfällt in die Bedeutungslosigkeit. Die KI kann nur innerhalb der Grenzen der Daten arbeiten, auf denen sie trainiert wurde. es kann kein wirklich neuartiges Denken hervorbringen.
Die Grenzen der Skalierung
Sogar einige in der KI-Branche erkennen diese Einschränkung. Yann LeCun, ein führender KI-Forscher, hat Meta kürzlich verlassen, um ein Startup zu gründen, das sich auf „Weltmodelle“ konzentriert – Systeme, die darauf ausgelegt sind, die physische Welt durch dauerhaftes Gedächtnis und Planung und nicht nur durch Sprache zu verstehen. Andere Experten definieren AGI mittlerweile nicht mehr als skalierende Sprachmodelle, sondern als Nachbildung der „kognitiven Vielseitigkeit und Leistungsfähigkeit eines gut ausgebildeten Erwachsenen“.
Doch selbst dieser differenziertere Ansatz steht vor einem grundlegenden Problem. Einer KI, die menschliche Kognition genau simulieren kann, mangelt es immer noch an der Fähigkeit zu echten Paradigmenwechseln. Echte wissenschaftliche Durchbrüche entstehen nicht durch iterative Datenanalyse; Sie entstehen aus Unzufriedenheit mit bestehenden Rahmenbedingungen, aus der Fähigkeit, sich Ideen vorzustellen, die über das derzeitige Verständnis hinausgehen.
Die Dead-Metapher-Maschine
Wie der Philosoph Richard Rorty argumentierte, entsteht Fortschritt oft dadurch, dass man „tote Metaphern“ verwirft – veraltete Denkweisen, die uns nicht mehr dienen. KI-Systeme sind von Natur aus zu dieser Art kreativer Unzufriedenheit nicht fähig. Sie können bestehendes Wissen neu mischen, aber sie können keine wirklich neuen Paradigmen generieren, weil sie im Vokabular ihrer Trainingsdaten gefangen sind.
Zusammenfassend lässt sich sagen: Auch wenn die KI ihre Aufgaben, für die sie entwickelt wurde, zweifellos weiter verbessern wird, bleibt das Versprechen der Superintelligenz eine wissenschaftliche Fantasie. Bei der menschlichen Intelligenz geht es nicht um die Verarbeitung von Daten; Es geht um die Fähigkeit zu originellem Denken, angetrieben von Neugier, Unzufriedenheit und der Fähigkeit, sich vorzustellen, was noch nicht existiert. Das kann kein Sprachmodell reproduzieren, egal wie groß es ist.
