Le battage médiatique sur l’IA repose sur un malentendu scientifique

15

La frénésie actuelle autour de l’intelligence artificielle, avec des PDG du secteur technologique prédisant une superintelligence d’ici 2026 et des percées dans l’allongement de la durée de vie, repose sur un défaut fondamental : la croyance erronée selon laquelle une modélisation avancée du langage équivaut à une véritable intelligence. Bien que les puissants outils d’IA comme ChatGPT et Gemini soient impressionnants, ils fonctionnent selon un principe fondamentalement différent de la pensée humaine – et la mise à l’échelle de ces systèmes ne comblera pas comme par magie cet écart.

L’illusion de l’intelligence

Le cœur du boom actuel de l’IA réside dans les « grands modèles de langage » (LLM). Ces systèmes excellent dans l’identification des corrélations statistiques au sein d’ensembles de données massifs de texte, ce qui leur permet de prédire le résultat le plus probable en réponse à une invite. Essentiellement, ce sont des machines sophistiquées d’appariement de modèles, et non des entités pensantes. Il s’agit d’une distinction cruciale. Les neurosciences démontrent clairement que la pensée humaine est largement indépendante du langage ; nous utilisons le langage pour communiquer la pensée, mais le langage n’est pas la même chose que la pensée elle-même.

Le battage médiatique suggère qu’en injectant simplement plus de données dans des ordinateurs toujours plus puissants (puces Nvidia, en particulier), nous atteindrons « l’intelligence générale artificielle » (AGI) – une IA capable d’effectuer n’importe quelle tâche intellectuelle qu’un humain peut réaliser. Cependant, cette hypothèse est scientifiquement douteuse. Les LLM sont des outils pour émuler la communication, et non pour reproduire les processus cognitifs distincts de la pensée et du raisonnement.

Le langage : un outil, pas une source de pensée

Des recherches récentes en neurosciences le confirment. Une étude de 2023 publiée dans Nature par Fedorenko, Piantadosi et Gibson a souligné que le langage est avant tout un outil de communication et non une condition préalable à la réflexion. Les personnes souffrant de graves déficiences linguistiques peuvent toujours s’engager dans un raisonnement complexe, dans la résolution de problèmes et même dans une logique formelle. L’imagerie cérébrale montre que les activités cognitives activent des réseaux neuronaux distincts de ceux utilisés pour le traitement du langage.

Prenons l’exemple d’un bébé : bien avant que le langage ne se développe, les nourrissons explorent, apprennent et forment des théories sur le monde par l’observation et l’expérimentation. Ils pensent sans le langage, démontrant que la cognition précède et existe indépendamment de la capacité linguistique. Ce n’est pas de la spéculation ; c’est une réalité observable.

L’efficacité de la communication, pas la création

Les langages humains ont évolué pour être efficaces : ils sont conçus pour transmettre des idées de manière claire et concise. Cela explique pourquoi diverses langues partagent des caractéristiques communes qui privilégient la facilité de production, d’apprentissage et de compréhension. Le langage améliore la cognition en facilitant l’échange de connaissances, mais il ne crée pas ces connaissances.

Supprimez le langage et nous pouvons toujours penser, raisonner et expérimenter le monde. Supprimez le langage d’un LLM, et il s’effondre dans un vide de sens. L’IA ne peut fonctionner que dans les limites des données sur lesquelles elle est formée ; elle ne peut pas générer une pensée véritablement nouvelle.

Les limites de la mise à l’échelle

Même certains acteurs du secteur de l’IA reconnaissent cette limite. Yann LeCun, un chercheur de premier plan en IA, a récemment quitté Meta pour fonder une startup axée sur les « modèles du monde » – des systèmes conçus pour comprendre le monde physique grâce à une mémoire persistante et à une planification, plutôt qu’au simple langage. D’autres experts définissent désormais l’AGI non pas comme une mise à l’échelle de modèles linguistiques, mais comme une reproduction de « la polyvalence cognitive et des compétences d’un adulte bien éduqué ».

Cependant, même cette approche plus nuancée se heurte à un problème fondamental. Une IA capable de simuler avec précision la cognition humaine n’a toujours pas la capacité de véritables changements de paradigme. Les véritables avancées scientifiques ne naissent pas d’une analyse itérative des données ; ils naissent de l’insatisfaction à l’égard des cadres existants, de la capacité à concevoir des idées qui transcendent la compréhension actuelle.

La machine à métaphore morte

Comme l’a soutenu le philosophe Richard Rorty, le progrès vient souvent de l’abandon des « métaphores mortes » – des modes de pensée dépassés qui ne nous servent plus. Les systèmes d’IA, de par leur nature même, sont incapables de ce genre d’insatisfaction créatrice. Ils peuvent remixer les connaissances existantes, mais ils ne peuvent pas générer de véritables nouveaux paradigmes car ils sont piégés dans le vocabulaire de leurs données de formation.

En conclusion, même si l’IA continuera sans aucun doute à s’améliorer dans les tâches pour lesquelles elle est conçue, la promesse de la superintelligence reste un fantasme scientifique. L’intelligence humaine ne consiste pas à traiter des données ; il s’agit de la capacité de pensée originale, motivée par la curiosité, l’insatisfaction et la capacité d’imaginer ce qui n’existe pas encore. C’est quelque chose qu’aucun modèle linguistique, quelle que soit sa taille, ne peut reproduire.

Попередня статтяЧёрная Пятница 2025: Распродажа берушей Loop для концертов, сна и не только
Наступна статтяMicrosoft Surface Pro Ponad 700 USD zniżki na wyprzedaży Amazon w Czarny piątek