O atual frenesi em torno da inteligência artificial, com os CEOs do setor de tecnologia prevendo a superinteligência até 2026 e avanços na extensão da vida útil, repousa sobre uma falha fundamental: a crença equivocada de que a modelagem de linguagem avançada equivale à inteligência genuína. Embora poderosas ferramentas de IA como ChatGPT e Gemini sejam impressionantes, elas operam com base em um princípio fundamentalmente diferente do pensamento humano – e ampliar ainda mais esses sistemas não preencherá magicamente essa lacuna.
A Ilusão da Inteligência
O núcleo do boom atual da IA reside nos “grandes modelos de linguagem” (LLMs). Esses sistemas são excelentes na identificação de correlações estatísticas em grandes conjuntos de dados de texto, permitindo-lhes prever o resultado mais provável a partir de um prompt. Em essência, são máquinas sofisticadas de correspondência de padrões, e não entidades pensantes. Esta é uma distinção crítica. A neurociência demonstra claramente que o pensamento humano é em grande parte independente da linguagem; nós usamos a linguagem para comunicar o pensamento, mas a linguagem não é o mesmo que o pensamento em si.
A propaganda sugere que simplesmente alimentando mais dados em computadores cada vez mais poderosos (chips Nvidia, especificamente), alcançaremos a “inteligência artificial geral” (AGI) – uma IA que pode realizar qualquer tarefa intelectual que um ser humano possa realizar. No entanto, esta suposição é cientificamente duvidosa. LLMs são ferramentas para emular a comunicação, e não replicar os processos cognitivos distintos de pensamento e raciocínio.
Linguagem: uma ferramenta, não a fonte do pensamento
Pesquisas recentes em neurociência confirmam isso. Um estudo de 2023 publicado na Nature por Fedorenko, Piantadosi e Gibson destacou que a linguagem é principalmente uma ferramenta de comunicação, não um pré-requisito para o pensamento. Indivíduos com graves deficiências linguísticas ainda podem envolver-se em raciocínio complexo, resolução de problemas e até mesmo lógica formal. Imagens cerebrais mostram que as atividades cognitivas ativam redes neurais separadas daquelas usadas para processamento de linguagem.
Consideremos um bebé: muito antes de a linguagem se desenvolver, os bebés exploram, aprendem e formam teorias sobre o mundo através da observação e da experimentação. Eles pensam sem a linguagem, demonstrando que a cognição precede e existe independentemente da habilidade linguística. Isso não é especulação; é uma realidade observável.
A eficiência da comunicação, não da criação
As línguas humanas evoluíram para serem eficientes: são concebidas para transmitir ideias de forma clara e concisa. Isso explica por que diversas línguas compartilham características comuns que priorizam a facilidade de produção, aprendizagem e compreensão. A linguagem melhora a cognição ao facilitar a troca de conhecimento, mas não cria esse conhecimento.
Retire a linguagem e ainda poderemos pensar, raciocinar e experimentar o mundo. Remova a linguagem de um LLM e ela cairá na falta de sentido. A IA só pode operar dentro dos limites dos dados nos quais foi treinada; não pode gerar pensamentos verdadeiramente novos.
Os limites do dimensionamento
Até mesmo alguns membros da indústria de IA reconhecem esta limitação. Yann LeCun, um importante pesquisador de IA, deixou recentemente a Meta para fundar uma startup focada em “modelos mundiais” – sistemas projetados para compreender o mundo físico por meio de memória e planejamento persistentes, em vez de apenas linguagem. Outros especialistas definem agora a AGI não como modelos de linguagem em escala, mas como replicação da “versatilidade cognitiva e proficiência de um adulto bem educado”.
No entanto, mesmo esta abordagem mais matizada enfrenta um problema fundamental. Uma IA que possa simular com precisão a cognição humana ainda não tem capacidade para mudanças genuínas de paradigma. Os verdadeiros avanços científicos não surgem da análise iterativa de dados; surgem da insatisfação com os enquadramentos existentes, da capacidade de conceber ideias que transcendem a compreensão atual.
A Máquina de Metáforas Mortas
Como argumentou o filósofo Richard Rorty, o progresso muitas vezes resulta do descarte de “metáforas mortas” – formas de pensar ultrapassadas que já não nos servem. Os sistemas de IA, pela sua própria natureza, são incapazes deste tipo de insatisfação criativa. Eles podem remixar o conhecimento existente, mas não podem gerar paradigmas verdadeiramente novos porque ficam presos no vocabulário dos seus dados de treinamento.
Em conclusão, embora a IA continue, sem dúvida, a melhorar nas tarefas para as quais foi concebida, a promessa de superinteligência continua a ser uma fantasia científica. A inteligência humana não envolve processamento de dados; trata-se da capacidade de pensamento original, movido pela curiosidade, pela insatisfação e pela capacidade de imaginar o que ainda não existe. Isso é algo que nenhum modelo de linguagem, por maior que seja, pode replicar.
