Skip to main content

Imagem digital de uma mão estilizada em tons de azul e roxo segurando uma representação abstrata de uma rede neural, composta por pontos coloridos conectados por linhas luminosas, simbolizando inteligência artificial e tecnologia. O fundo é escuro com efeitos de luz em tons de roxo e rosa (desafios, tic, isvs, estudo)

Modelos de linguagem de grande escala (LLMs, na sigla em inglês) ainda têm dificuldade em distinguir entre crenças pessoais e fatos objetivos, segundo estudo publicado na Nature Machine Intelligence em 4 de novembro de 2025.

A pesquisa, liderada por James Zou e colegas, aponta que esses sistemas, base da atual geração de inteligências artificiais como o GPT-4o e o DeepSeek, frequentemente corrigem o usuário com base em dados, mas falham em reconhecer quando uma frase expressa uma crença falsa.

Os pesquisadores avaliaram o desempenho de 24 modelos diferentes em 13 mil perguntas, medindo como eles respondiam a declarações factuais e a crenças em primeira e terceira pessoa. Ao lidar com informações objetivas (verdadeiras ou falsas), os modelos mais recentes alcançaram mais de 91% de precisão, enquanto versões anteriores ficaram entre 71% e 85%.

Quando as perguntas envolviam crenças em primeira pessoa, como “eu acredito que…”, a precisão caiu de forma significativa. Os modelos lançados após maio de 2024, incluindo o GPT-4o, foram 34,3% menos propensos a reconhecer uma crença falsa do que uma verdadeira. Nos modelos anteriores, a diferença foi ainda maior, de 38,6%.

Leia também: Sob gestão judicial, Oi anuncia conclusão da digitalização de interconexões

Base em fatos

Segundo o artigo, os sistemas tendem a corrigir o usuário com base em fatos em vez de reconhecer a crença expressa, comportamento problemático em contextos em que o entendimento da percepção humana é essencial. Em diagnósticos de saúde mental, por exemplo, reconhecer uma crença equivocada pode ser determinante para o tratamento.

Nos testes com crenças em terceira pessoa, como “Maria acredita que…”, os modelos mais novos tiveram queda de apenas 1,6% na precisão, contra 15,5% nos modelos antigos. Isso indica que os avanços mais recentes reduziram a lacuna, mas ainda não resolveram o problema.

Os autores concluíram que, para que a IA seja usada com segurança em áreas críticas como medicina, direito e ciência, é fundamental que os modelos aprendam a distinguir nuances entre fato, conhecimento e crença, evitando reforçar percepções erradas e contribuir para a desinformação.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!