
A Anthropic confirmou que está investigando um incidente de acesso não autorizado ao Claude Mythos. De acordo com reportagens da Bloomberg e do Financial Times, o acesso teria sido obtido por um pequeno grupo de usuários em um fórum privado online.
O ponto de entrada não foi um ataque cibernético tradicional, mas sim uma falha de governança em um ambiente de fornecedores terceirizados, que fazem parte do pequeno grupo de pessoas terceiras que acessas os sistemas da Anthropic.
Leia mais: TrendAI anuncia parceria com Anthropic
Em comunicado a Anthropic afirmou que está analisando o relato de acesso ao Claude Mythos Preview. Informações da BBC indicam que um dos participantes do fórum utilizou credenciais legítimas obtidas por meio de seu trabalho em uma empresa contratada pela Anthropic para auxiliar no desenvolvimento de modelos.
A empresa também enfatizou que não há evidências de que a invasão tenha ultrapassado o ambiente de fornecedor, grantindo que os sistemas internos de desenvolvimento permanecem íntegros, também não há indícios de que atores mal-intencionados, como nações-estado ou grupos de ransomware, tenham capturado o modelo.
O que é Claude Mythos?
O Claude Mythos foi projetado para detectar vulnerabilidades que persistem em sistemas complexos, superando ferramentas automatizadas e analistas humanos. Para mitigar riscos e colocar em prática a IA, a Anthropic havia liberado o uso da ferramenta para algumas empresas de tecnologia e finanças.
Histórico de incidentes
Este não é o primeiro incidente de segurança no laboratório de IA da Anthropic, atualmente avaliado em US$ 380 bilhões.
Em março de 2026, descrições detalhadas do modelo foram encontradas em um cache de dados público, o que a empresa atribuiu a erro humano. Já em abril, o código-fonte interno do Claude Code, assistente de programação da companhia, também foi exposto publicamente.
Obstáculo na corrida da IA
Durante a conferência CyberUK, Richard Horne, chefe do Centro Nacional de Segurança Cibernética (NCSC) do Reino Unido, comentou o cenário atual. Embora reconheça que a IA de fronteira permite a descoberta de falhas em massa, ele argumentou que essas ferramentas podem ser um “ganho líquido positivo” se as empresas focarem no básico da higiene cibernética.
Enquanto isso, a da IA continua, a OpenAI também mantém sob sigilo o GPT 5.4 Cyber, seu modelo equivalente ao Claude Mythos focado em segurança.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!


