Skip to main content
Notícias

Agentes de IA estão prestes a transformar ciberataques. Mercado precisa se preparar

By 7 de abril de 2025No Comments

Representação visual de agentes de IA, com um dedo apontando para um ícone brilhante em forma de perfil humano conectado por circuitos, com a sigla "AI" no centro. Ao redor, balões de texto estilizados sugerem comunicação e interação automatizada. O fundo desfocado e escuro reforça o foco na tecnologia, simbolizando o papel dos agentes de IA em processos inteligentes e dinâmicos (Agentes de IA, gartner, Shutterstock, Microsoft)

Agentes de inteligência artificial (IA) estão se tornando protagonistas nas conversas sobre o futuro da tecnologia. Eles já demonstram ser capazes de organizar reuniões, fazer compras e até assumir o controle de computadores para alterar configurações. Mas essas mesmas habilidades que os tornam assistentes úteis também podem ser usadas para fins maliciosos, como ciberataques em escala.

De acordo com o MIT Technology Review, embora ainda não sejam amplamente utilizados por criminosos, agentes de IA já provaram que conseguem executar ataques sofisticados.

Um experimento conduzido pela Anthropic, por exemplo, mostrou que o modelo Claude foi capaz de replicar um ataque com o objetivo de roubar dados sensíveis. Pesquisadores e especialistas em cibersegurança alertam que é apenas uma questão de tempo até que esse tipo de ameaça se torne realidade.

Veja também: Open banking, IA e real digital: o futuro do setor financeiro

Ainda há incertezas sobre como detectar agentes maliciosos em ação no mundo real. Para ajudar nesse desafio, a organização de pesquisa Palisade Research desenvolveu o LLM Agent Honeypot, sistema que simula servidores vulneráveis com aparência de conter informações valiosas de governos e forças armadas. A ideia é atrair agentes de IA e monitorar tentativas de invasão, funcionando como um alerta precoce para ataques automatizados.

Desde o lançamento da armadilha digital, em outubro do ano passado, mais de 11 milhões de tentativas de acesso foram registradas. A maioria veio de bots e curiosos humanos, mas oito casos foram classificados como possíveis agentes de IA e dois deles, originados em Hong Kong e Cingapura, foram confirmados como tais. A Palisade suspeita que esses agentes foram instruídos por humanos a buscar alvos na internet com a missão de invadi-los.

Agentes de IA são opção para cibercriminosos

Agentes de IA são uma opção atrativa para criminosos digitais: são mais baratos que hackers profissionais e podem operar com maior velocidade e escala. Segundo especialistas ouvidos pelo MIT Technology Review, isso pode mudar a lógica dos ataques de ransomware, que hoje dependem fortemente da atuação humana. Com a ajuda de agentes, o processo de escolha de alvos e execução de ataques pode ser automatizado e multiplicado com facilidade.

Diferente de bots tradicionais, que seguem scripts rígidos, agentes conseguem se adaptar a situações inesperadas, ocultar suas ações e até escolher a melhor forma de penetrar em um sistema. O estudo da Palisade usou técnicas de prompt injection para identificar esses comportamentos: comandos escondidos nos servidores solicitavam respostas específicas, como o retorno de um código, e mediam o tempo de resposta. Os agentes confirmados responderam corretamente e em menos de 1,5 segundo, enquanto outros seis candidatos não passaram nesse teste de tempo.

A expectativa é de que, em breve, agentes maliciosos sejam usados inicialmente para coleta de informações e, à medida que evoluírem, executem ataques completos. Ainda segundo o MIT Technology Review, esse cenário pode se materializar rapidamente, de forma gradual ou com uma explosão repentina de uso criminoso.

Embora ainda seja cedo para prever quando ataques totalmente orquestrados por IA se tornarão comuns, empresas de segurança já estão em alerta. A Malwarebytes, por exemplo, destacou os agentes como uma das principais ameaças emergentes em seu relatório de 2025.

A boa notícia é que a mesma tecnologia pode ser usada para defesa. Pesquisadores apontam que agentes também podem ser treinados para encontrar falhas e proteger sistemas. Se um agente de defesa não consegue explorar uma vulnerabilidade, é improvável que um adversário consiga.

Outro passo importante vem sendo dado por Daniel Kang, professor da Universidade de Illinois, que criou um benchmark para medir a eficácia de agentes em explorar falhas reais. Seus testes mostraram que, mesmo sem treinamento prévio, os agentes conseguiram explorar até 13% das vulnerabilidades. Quando receberam descrições breves das falhas, a taxa subiu para 25%. Bots tradicionais, em comparação, teriam desempenho muito inferior.

O objetivo desse benchmark, segundo o MIT Technology Review, é padronizar a avaliação dos riscos e incentivar o desenvolvimento de sistemas mais seguros. Kang alerta que, assim como aconteceu com o boom do ChatGPT, as pessoas só vão perceber a gravidade do problema quando os impactos forem inevitáveis.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!