El frenesí actual en torno a la inteligencia artificial, con los directores ejecutivos de tecnología prediciendo superinteligencia para 2026 y avances en la extensión de la vida útil, se basa en un defecto fundamental: la creencia errónea de que el modelado de lenguaje avanzado equivale a inteligencia genuina. Si bien las poderosas herramientas de inteligencia artificial como ChatGPT y Gemini son impresionantes, operan según un principio fundamentalmente diferente del pensamiento humano, y escalar aún más estos sistemas no cerrará esa brecha mágicamente.
La ilusión de la inteligencia
El núcleo del auge actual de la IA reside en los “grandes modelos de lenguaje” (LLM). Estos sistemas se destacan en la identificación de correlaciones estadísticas dentro de conjuntos de datos masivos de texto, lo que les permite predecir el resultado más probable si se les solicita. En esencia, son máquinas sofisticadas que combinan patrones, no entidades pensantes. Esta es una distinción crítica. La neurociencia demuestra claramente que el pensamiento humano es en gran medida independiente del lenguaje; usamos el lenguaje para comunicar el pensamiento, pero el lenguaje no es lo mismo que el pensamiento mismo.
El revuelo sugiere que simplemente alimentando más datos en computadoras cada vez más poderosas (chips Nvidia, específicamente), alcanzaremos la “inteligencia general artificial” (AGI), una IA que puede realizar cualquier tarea intelectual que un ser humano pueda realizar. Sin embargo, esta suposición es científicamente dudosa. Los LLM son herramientas para emular la comunicación, no replicar los distintos procesos cognitivos de pensamiento y razonamiento.
Lenguaje: una herramienta, no la fuente del pensamiento
Investigaciones recientes en neurociencia lo confirman. Un estudio de 2023 publicado en Nature por Fedorenko, Piantadosi y Gibson subrayó que el lenguaje es principalmente una herramienta para la comunicación, no un requisito previo para el pensamiento. Las personas con graves discapacidades lingüísticas aún pueden participar en razonamientos complejos, resolución de problemas e incluso lógica formal. Las imágenes cerebrales muestran que las actividades cognitivas activan redes neuronales distintas de las utilizadas para el procesamiento del lenguaje.
Pensemos en un bebé: mucho antes de que se desarrolle el lenguaje, los bebés exploran, aprenden y formulan teorías sobre el mundo a través de la observación y la experimentación. Piensan sin lenguaje, lo que demuestra que la cognición precede y existe independientemente de la capacidad lingüística. Esto no es una especulación; es una realidad observable.
La eficiencia de la comunicación, no de la creación
Los lenguajes humanos evolucionaron para ser eficientes: están diseñados para transmitir ideas de forma clara y concisa. Esto explica por qué los diversos lenguajes comparten características comunes que priorizan la facilidad de producción, aprendizaje y comprensión. El lenguaje mejora la cognición al facilitar el intercambio de conocimientos, pero no crea ese conocimiento.
Si quitamos el lenguaje, todavía podremos pensar, razonar y experimentar el mundo. Elimine el lenguaje de un LLM y dejará de tener sentido. La IA sólo puede operar dentro de los límites de los datos con los que está entrenada; no puede generar un pensamiento verdaderamente novedoso.
Los límites de la escala
Incluso algunos dentro de la industria de la IA reconocen esta limitación. Yann LeCun, un destacado investigador de IA, dejó recientemente Meta para fundar una startup centrada en “modelos mundiales”: sistemas diseñados para comprender el mundo físico a través de la memoria y la planificación persistentes, en lugar de solo el lenguaje. Otros expertos ahora definen AGI no como modelos de lenguaje a escala, sino como una réplica de la “versatilidad cognitiva y la competencia de un adulto bien educado”.
Sin embargo, incluso este enfoque más matizado enfrenta un problema fundamental. Una IA que pueda simular con precisión la cognición humana todavía carece de la capacidad para realizar cambios de paradigma genuinos. Los verdaderos avances científicos no surgen del análisis iterativo de datos; surgen de la insatisfacción con los marcos existentes, de la capacidad de concebir ideas que trascienden la comprensión actual.
La máquina de metáforas muertas
Como argumentó el filósofo Richard Rorty, el progreso a menudo proviene del descarte de “metáforas muertas”: formas de pensar obsoletas que ya no nos sirven. Los sistemas de IA, por su propia naturaleza, son incapaces de este tipo de insatisfacción creativa. Pueden remezclar el conocimiento existente, pero no pueden generar paradigmas verdaderamente nuevos porque están atrapados dentro del vocabulario de sus datos de entrenamiento.
En conclusión, si bien la IA sin duda seguirá mejorando en las tareas para las que está diseñada, la promesa de la superinteligencia sigue siendo una fantasía científica. La inteligencia humana no se trata de procesar datos; se trata de la capacidad de pensamiento original, impulsado por la curiosidad, la insatisfacción y la capacidad de imaginar lo que aún no existe. Esto es algo que ningún modelo de lenguaje, por grande que sea, puede replicar.

































