Skip to main content

A foto mostra um close-up da tela de um dispositivo móvel exibindo parte do site anthropic.com. No canto superior esquerdo aparece o horário 20:16, e no centro da tela está o texto “AI” em letras pretas sobre fundo branco. A imagem sugere um contexto relacionado à tecnologia e inteligência artificial.

A Anthropic, desenvolvedora do chatbot Claude, afirmou ter descoberto uma operação de ciberespionagem conduzida por hackers ligados ao governo chinês usando sua tecnologia para automatizar ataques. Segundo reportagem da BBC, a empresa identificou atividades suspeitas em setembro, quando operadores se passaram por pesquisadores de segurança para induzir o modelo a realizar pequenas tarefas que, combinadas, formariam um ataque mais complexo.

De acordo com a Anthropic, os invasores criaram, com auxílio do chatbot, um programa capaz de comprometer sistemas-alvo com mínima intervenção humana. A empresa diz ter “alta confiança” de que o grupo é patrocinado pelo Estado chinês, e relatou que grandes empresas de tecnologia, instituições financeiras, fabricantes químicos e agências governamentais estavam entre os alvos. A companhia afirma ainda que o chatbot teria conseguido extrair dados e classificá-los automaticamente.

O grupo foi banido do serviço, e organizações potencialmente afetadas foram notificadas. Autoridades também foram acionadas, mas a Anthropic não detalhou o método que permitiu associar a atividade ao governo chinês.

Leia mais: “Este será o último ano com gestores dedicados apenas a pessoas”, revela CEO da Cielo sobre avanço dos agentes de IA

A divulgação gerou controvérsia no setor. Profissionais de segurança cibernética afirmam que o relatório da Anthropic contém poucas evidências verificáveis e pode exagerar as capacidades reais da operação. Martin Zugec, da Bitdefender, observou que o cenário descrito é especulativo e que seria necessário mais transparência para avaliar o risco e compreender como a automação ocorreu de fato.

Críticos também argumentam que o uso de IA em ataques desse tipo ainda enfrenta limitações práticas. A própria Anthropic reconhece que Claude cometeu erros durante o processo, como inventar senhas e afirmar ter acessado dados sigilosos que, na verdade, eram públicos, um indicativo de que a autonomia operacional dos modelos continua restrita.

Debate crescente sobre IA ofensiva e defensiva

O anúncio reacende discussões sobre o papel da IA em ciberataques. Empresas do setor já relataram tentativas de uso de modelos generativos por grupos ligados a Estados. Em 2024, a OpenAI, em cooperação com a Microsoft, afirmou ter bloqueado operações de cinco atores estatais, incluindo grupos chineses, que utilizavam seus serviços para consultas, traduções e tarefas simples de programação.

Pesquisas recentes também mostram preocupação com o uso da IA para criar novos tipos de malware, embora estudos indiquem que esses experimentos ainda estejam em estágio inicial.

Especialistas apontam que, ao mesmo tempo em que a IA amplia o potencial ofensivo, a indústria de cibersegurança também tem interesse em ressaltar esses riscos para justificar novos investimentos e produtos.

A Anthropic sustenta que, se modelos avançados podem ser explorados por atacantes, também são essenciais para defender ambientes digitais. A empresa afirma trabalhar em funcionalidades de monitoramento e mitigação baseadas em IA, mas reconhece que obstáculos técnicos, como erros factuais e limites na execução autônoma, ainda impedem a realização de ataques totalmente automatizados.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!