
As maiores empresas de tecnologia vêm alimentando um discurso ambicioso sobre o futuro da inteligência artificial (IA). Líderes do setor projetam saltos inéditos: de sistemas “mais inteligentes que vencedores do Nobel” a cenários de expansão radical da longevidade e aceleração científica sem precedentes. Mas uma nova leva de estudos vem esfriando o otimismo, especialmente ao analisar o tipo de tecnologia que sustenta essa narrativa.
Reportagem publicada pelo The Verge destaca que, apesar do entusiasmo, boa parte das declarações ignora um ponto central: modelos de linguagem não equivalem à inteligência humana. E, segundo pesquisas atuais em neurociência cognitiva, pensar e falar não são processos equivalentes.
Sistemas como ChatGPT, Claude, Gemini e os modelos da Meta são construídos sobre o mesmo princípio: são grandes modelos de linguagem treinados em volumes massivos de textos. Sua habilidade reside em mapear padrões, medir correlações entre tokens e prever a próxima palavra com base em estatística.
Leia também: Black Friday completa 15 anos no Brasil como motor da evolução tecnológica do varejo
Essa arquitetura lhes confere fluência impressionante — mas não os transforma em entidades inteligentes no sentido biológico. Como explica o The Verge, essa limitação é estrutural: mais dados e modelos maiores não aproximam essas tecnologias da forma como humanos raciocinam.
Alerta da ciência
Os achados científicos sintetizados na reportagem apontam que o pensamento humano ocorre em circuitos cerebrais que operam em grande parte sem linguagem. Linguagem é uma camada de expressão, não o motor da inteligência. Isso significa que, mesmo que um modelo domine a sintaxe, gere respostas coerentes ou simule diálogos complexos, ele não replica o mecanismo que está na base de decisões, abstração profunda ou compreensão contextual.
Na prática, a indústria estaria confundindo proficiência linguística com capacidade cognitiva.
A crítica central destacada pelo The Verge é que as promessas de “superinteligência” dependem de um pressuposto frágil, o de que melhorar modelos de linguagem equivaleria a criar sistemas capazes de pensar. Mesmo executivos que lideram o desenvolvimento desses modelos associam avanços de escala à possibilidade de atingir uma “AGI”, inteligência artificial geral.
O argumento do artigo é que essa conexão não encontra respaldo na ciência atual. E, ao ignorar essa distinção, o setor pode estar inflando expectativas, investimentos e discursos baseados em uma interpretação equivocada do que seus próprios sistemas são capazes de fazer.
A reportagem também sugere que a desconexão entre ciência cognitiva e hype tecnológico pode levar a uma revisão profunda de estratégias, investimentos e regulações. Se linguagem não é um atalho para inteligência, a corrida pela AGI baseada exclusivamente em Large Language Models (LLMs) pode tropeçar nos próprios limites arquiteturais.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

