
A Anthropic decidiu limitar o acesso ao seu novo modelo de inteligência artificial (IA), o Claude Mythos Preview, diante de preocupações sobre o potencial uso indevido da tecnologia em ataques cibernéticos. A iniciativa marca uma abordagem mais cautelosa no avanço da IA, especialmente em áreas sensíveis como segurança digital.
O modelo foi desenvolvido com alta capacidade de identificar vulnerabilidades e falhas em sistemas de software, uma habilidade que pode tanto fortalecer a defesa cibernética quanto, se mal utilizada, abrir espaço para exploração por hackers.
Para evitar riscos, a Anthropic optou por liberar o Claude Mythos apenas para um grupo seleto de empresas, incluindo gigantes como Microsoft, Amazon, Apple e outras companhias de infraestrutura e segurança digital. Ao todo, mais de 40 organizações participam da iniciativa.
Essas empresas integram o Project Glasswing, um programa criado para testar o uso da IA na identificação e correção de falhas em sistemas críticos. A proposta é preparar o mercado para um cenário em que modelos com capacidades avançadas em cibersegurança se tornem mais comuns.
Leia mais: IA explicável e observabilidade de LLMs estarão em metade das implementações até 2028
Equilíbrio entre avanço e risco
A decisão de restringir o modelo foi resultado de debates internos sobre os riscos envolvidos. Executivos da empresa destacam que o objetivo é oferecer uma vantagem inicial para defensores cibernéticos, sem expor a tecnologia a usos maliciosos.
A preocupação não é teórica. Informações sobre as capacidades do modelo vieram à tona antes do anúncio oficial, gerando reações no mercado e levantando alertas sobre o impacto potencial dessas ferramentas.
Capacidade técnica e implicações
O Claude Mythos Preview se destaca por encontrar vulnerabilidades difíceis de detectar, incluindo falhas críticas em sistemas amplamente utilizados. Em um dos testes, o modelo identificou um bug antigo em um sistema operacional focado em segurança, evidenciando o nível de sofisticação alcançado.
Apesar disso, a Anthropic afirma que o modelo não foi treinado exclusivamente para cibersegurança. Seu desempenho é resultado da evolução geral em capacidades de programação e raciocínio, o que amplia ainda mais o debate sobre os limites e aplicações dessas tecnologias.
Relação com governos e regulação
A empresa também mantém diálogo com órgãos governamentais dos Estados Unidos sobre os riscos e aplicações do modelo, incluindo entidades ligadas à segurança cibernética e padronização de IA.
O movimento ocorre em um momento em que cresce a pressão por maior controle e governança sobre sistemas avançados de inteligência artificial, especialmente aqueles com potencial de impacto direto em infraestrutura crítica.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

