Skip to main content

A cena mostra um ambiente escuro com silhuetas de pessoas em primeiro plano, sugerindo um espaço de evento ou conferência. Ao fundo, há um grande painel branco com a palavra “ANTHROPC” escrita em letras maiúsculas pretas, ocupando a maior parte da tela. A iluminação destaca fortemente o painel, criando contraste com as figuras sombreadas à frente. A composição transmite uma atmosfera moderna e tecnológica, associada à marca Anthropic, conhecida por atuar no setor de inteligência artificial.

A Anthropic decidiu limitar o acesso ao seu novo modelo de inteligência artificial (IA), o Claude Mythos Preview, diante de preocupações sobre o potencial uso indevido da tecnologia em ataques cibernéticos. A iniciativa marca uma abordagem mais cautelosa no avanço da IA, especialmente em áreas sensíveis como segurança digital.

O modelo foi desenvolvido com alta capacidade de identificar vulnerabilidades e falhas em sistemas de software, uma habilidade que pode tanto fortalecer a defesa cibernética quanto, se mal utilizada, abrir espaço para exploração por hackers.

Para evitar riscos, a Anthropic optou por liberar o Claude Mythos apenas para um grupo seleto de empresas, incluindo gigantes como Microsoft, Amazon, Apple e outras companhias de infraestrutura e segurança digital. Ao todo, mais de 40 organizações participam da iniciativa.

Essas empresas integram o Project Glasswing, um programa criado para testar o uso da IA na identificação e correção de falhas em sistemas críticos. A proposta é preparar o mercado para um cenário em que modelos com capacidades avançadas em cibersegurança se tornem mais comuns.

Leia mais: IA explicável e observabilidade de LLMs estarão em metade das implementações até 2028

Equilíbrio entre avanço e risco

A decisão de restringir o modelo foi resultado de debates internos sobre os riscos envolvidos. Executivos da empresa destacam que o objetivo é oferecer uma vantagem inicial para defensores cibernéticos, sem expor a tecnologia a usos maliciosos.

A preocupação não é teórica. Informações sobre as capacidades do modelo vieram à tona antes do anúncio oficial, gerando reações no mercado e levantando alertas sobre o impacto potencial dessas ferramentas.

Capacidade técnica e implicações

O Claude Mythos Preview se destaca por encontrar vulnerabilidades difíceis de detectar, incluindo falhas críticas em sistemas amplamente utilizados. Em um dos testes, o modelo identificou um bug antigo em um sistema operacional focado em segurança, evidenciando o nível de sofisticação alcançado.

Apesar disso, a Anthropic afirma que o modelo não foi treinado exclusivamente para cibersegurança. Seu desempenho é resultado da evolução geral em capacidades de programação e raciocínio, o que amplia ainda mais o debate sobre os limites e aplicações dessas tecnologias.

Relação com governos e regulação

A empresa também mantém diálogo com órgãos governamentais dos Estados Unidos sobre os riscos e aplicações do modelo, incluindo entidades ligadas à segurança cibernética e padronização de IA.

O movimento ocorre em um momento em que cresce a pressão por maior controle e governança sobre sistemas avançados de inteligência artificial, especialmente aqueles com potencial de impacto direto em infraestrutura crítica.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!