
A Anthropic, desenvolvedora do chatbot Claude, afirmou ter descoberto uma operação de ciberespionagem conduzida por hackers ligados ao governo chinês usando sua tecnologia para automatizar ataques. Segundo reportagem da BBC, a empresa identificou atividades suspeitas em setembro, quando operadores se passaram por pesquisadores de segurança para induzir o modelo a realizar pequenas tarefas que, combinadas, formariam um ataque mais complexo.
De acordo com a Anthropic, os invasores criaram, com auxílio do chatbot, um programa capaz de comprometer sistemas-alvo com mínima intervenção humana. A empresa diz ter “alta confiança” de que o grupo é patrocinado pelo Estado chinês, e relatou que grandes empresas de tecnologia, instituições financeiras, fabricantes químicos e agências governamentais estavam entre os alvos. A companhia afirma ainda que o chatbot teria conseguido extrair dados e classificá-los automaticamente.
O grupo foi banido do serviço, e organizações potencialmente afetadas foram notificadas. Autoridades também foram acionadas, mas a Anthropic não detalhou o método que permitiu associar a atividade ao governo chinês.
A divulgação gerou controvérsia no setor. Profissionais de segurança cibernética afirmam que o relatório da Anthropic contém poucas evidências verificáveis e pode exagerar as capacidades reais da operação. Martin Zugec, da Bitdefender, observou que o cenário descrito é especulativo e que seria necessário mais transparência para avaliar o risco e compreender como a automação ocorreu de fato.
Críticos também argumentam que o uso de IA em ataques desse tipo ainda enfrenta limitações práticas. A própria Anthropic reconhece que Claude cometeu erros durante o processo, como inventar senhas e afirmar ter acessado dados sigilosos que, na verdade, eram públicos, um indicativo de que a autonomia operacional dos modelos continua restrita.
Debate crescente sobre IA ofensiva e defensiva
O anúncio reacende discussões sobre o papel da IA em ciberataques. Empresas do setor já relataram tentativas de uso de modelos generativos por grupos ligados a Estados. Em 2024, a OpenAI, em cooperação com a Microsoft, afirmou ter bloqueado operações de cinco atores estatais, incluindo grupos chineses, que utilizavam seus serviços para consultas, traduções e tarefas simples de programação.
Pesquisas recentes também mostram preocupação com o uso da IA para criar novos tipos de malware, embora estudos indiquem que esses experimentos ainda estejam em estágio inicial.
Especialistas apontam que, ao mesmo tempo em que a IA amplia o potencial ofensivo, a indústria de cibersegurança também tem interesse em ressaltar esses riscos para justificar novos investimentos e produtos.
A Anthropic sustenta que, se modelos avançados podem ser explorados por atacantes, também são essenciais para defender ambientes digitais. A empresa afirma trabalhar em funcionalidades de monitoramento e mitigação baseadas em IA, mas reconhece que obstáculos técnicos, como erros factuais e limites na execução autônoma, ainda impedem a realização de ataques totalmente automatizados.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!


