Skip to main content
Notícias

Entregar controle total a agentes de IA seria um erro grave, alertam especialistas

By 26 de março de 2025No Comments

A imagem representa o conceito de inteligência artificial e assistentes virtuais. Um homem, vestido com uma camisa azul, segura um smartphone enquanto projeções holográficas aparecem sobre sua mão. Os ícones incluem um robô de IA, gráficos de desempenho, um chip eletrônico e uma barra de pesquisa com "Command Prompt:". A cena é iluminada com tons de azul, reforçando a ideia de tecnologia avançada, automação e interação com agentes de IA

A nova geração de agentes de inteligência artificial (IA), capazes de agir fora das janelas de chat e navegar por múltiplos aplicativos para realizar tarefas complexas, está ganhando espaço rapidamente. Mas à medida que essas ferramentas se tornam mais autônomas, cresce também o alerta entre especialistas: delegar o controle total às máquinas pode ser perigoso demais.

Em um artigo publicado nesta segunda-feira (24) no MIT Technology Review, quatro pesquisadores da Hugging Face Margaret Mitchell, Avijit Ghosh, Sasha Luccioni e Giada Pistilli – detalham os riscos dessa nova onda da IA. Segundo eles, quanto maior a autonomia dos sistemas, menor o controle humano e maior a chance de que ações indesejadas causem danos significativos.

Ao contrário dos chatbots tradicionais, agentes como o Claude, da Anthropic, ou o Manus, conseguem executar comandos diretamente no computador do usuário ou usar ferramentas online sem supervisão direta. Eles podem, por exemplo, marcar reuniões, fazer compras, redigir apresentações e até coordenar rotas de evacuação em emergências.

Leia também: Nvidia anuncia centro de pesquisa em computação quântica 

Esses avanços trazem benefícios inegáveis, inclusive para pessoas com mobilidade reduzida ou baixa visão. No entanto, os autores alertam que a velocidade da inovação está ultrapassando a cautela necessária para garantir segurança e responsabilidade.

Perigo da autonomia irrestrita

Boa parte dos agentes é construída com base em modelos de linguagem de larga escala (LLMs), conhecidos por sua imprevisibilidade e erros frequentes. Enquanto em interfaces de chat esses erros ficam restritos ao texto gerado, um agente com acesso a múltiplos sistemas pode cometer falhas muito mais graves: manipular arquivos, enviar e-mails indevidos, acessar dados privados ou realizar transações não autorizadas.

“A própria função que está sendo vendida — menos supervisão humana — é a principal vulnerabilidade”, afirmam os autores. Eles classificam os agentes em uma escala de autonomia, que vai de simples robôs de atendimento até sistemas capazes de escrever e executar códigos sem qualquer intervenção humana. Cada etapa nesse caminho representa uma redução da supervisão humana.

Privacidade, segurança e consequências imprevisíveis

Com acesso simultâneo a fontes públicas e privadas, agentes de IA podem expor informações pessoais, espalhar dados incorretos e até prejudicar reputações, tudo isso de forma automática e difícil de rastrear. Os autores preveem que frases como “não fui eu, foi meu agente!” se tornarão comuns em tentativas de justificar falhas.

Além disso, a história oferece lições importantes: em 1980, um erro em sistemas automatizados quase levou a uma resposta nuclear dos EUA, só evitada pela intervenção humana. Para os pesquisadores, a analogia é clara — remover os humanos do processo decisório é perigoso demais.

Soluções possíveis: IA aberta e limites bem definidos

Como alternativa, os autores defendem o desenvolvimento de agentes em código aberto e ambientes seguros, como o framework smolagents, criado pela Hugging Face. A proposta é oferecer transparência, controle e auditabilidade, permitindo que qualquer grupo independente possa verificar o comportamento dos agentes.

Eles criticam a tendência atual de criar sistemas cada vez mais opacos e proprietários, que dificultam a verificação de segurança e limitam a responsabilização. “A eficiência não pode ser o objetivo principal. O mais importante é promover o bem-estar humano”, concluem.

Para os autores, a IA deve permanecer como ferramenta e assistente — nunca como substituta do julgamento humano. Ainda que imperfeito, o discernimento humano é, segundo eles, o principal escudo contra os riscos éticos, sociais e técnicos da automação total.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!