Skip to main content

A foto mostra uma tela virtual transparente com elementos gráficos relacionados à programação e inteligência artificial. À esquerda, há um ícone de perfil humano com circuitos no cérebro e o texto “AI Coding Assistant” abaixo. À direita, aparecem linhas de código coloridas em diferentes tons (roxo, azul, verde, laranja), organizadas com números de linha, simulando um editor de código. Ao fundo, há um teclado iluminado, sugerindo que alguém está digitando, e o ambiente tem iluminação azul, transmitindo um clima tecnológico e futurista. (software)

As maiores empresas de tecnologia vêm alimentando um discurso ambicioso sobre o futuro da inteligência artificial (IA). Líderes do setor projetam saltos inéditos: de sistemas “mais inteligentes que vencedores do Nobel” a cenários de expansão radical da longevidade e aceleração científica sem precedentes. Mas uma nova leva de estudos vem esfriando o otimismo, especialmente ao analisar o tipo de tecnologia que sustenta essa narrativa.

Reportagem publicada pelo The Verge destaca que, apesar do entusiasmo, boa parte das declarações ignora um ponto central: modelos de linguagem não equivalem à inteligência humana. E, segundo pesquisas atuais em neurociência cognitiva, pensar e falar não são processos equivalentes.

Sistemas como ChatGPT, Claude, Gemini e os modelos da Meta são construídos sobre o mesmo princípio: são grandes modelos de linguagem treinados em volumes massivos de textos. Sua habilidade reside em mapear padrões, medir correlações entre tokens e prever a próxima palavra com base em estatística.

Leia também: Black Friday completa 15 anos no Brasil como motor da evolução tecnológica do varejo

Essa arquitetura lhes confere fluência impressionante — mas não os transforma em entidades inteligentes no sentido biológico. Como explica o The Verge, essa limitação é estrutural: mais dados e modelos maiores não aproximam essas tecnologias da forma como humanos raciocinam.

Alerta da ciência

Os achados científicos sintetizados na reportagem apontam que o pensamento humano ocorre em circuitos cerebrais que operam em grande parte sem linguagem. Linguagem é uma camada de expressão, não o motor da inteligência. Isso significa que, mesmo que um modelo domine a sintaxe, gere respostas coerentes ou simule diálogos complexos, ele não replica o mecanismo que está na base de decisões, abstração profunda ou compreensão contextual.

Na prática, a indústria estaria confundindo proficiência linguística com capacidade cognitiva.

A crítica central destacada pelo The Verge é que as promessas de “superinteligência” dependem de um pressuposto frágil, o de que melhorar modelos de linguagem equivaleria a criar sistemas capazes de pensar. Mesmo executivos que lideram o desenvolvimento desses modelos associam avanços de escala à possibilidade de atingir uma “AGI”, inteligência artificial geral.

O argumento do artigo é que essa conexão não encontra respaldo na ciência atual. E, ao ignorar essa distinção, o setor pode estar inflando expectativas, investimentos e discursos baseados em uma interpretação equivocada do que seus próprios sistemas são capazes de fazer.

A reportagem também sugere que a desconexão entre ciência cognitiva e hype tecnológico pode levar a uma revisão profunda de estratégias, investimentos e regulações. Se linguagem não é um atalho para inteligência, a corrida pela AGI baseada exclusivamente em Large Language Models (LLMs) pode tropeçar nos próprios limites arquiteturais.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!