Skip to main content

A cena mostra um ambiente escuro com silhuetas de pessoas em primeiro plano, sugerindo um espaço de evento ou conferência. Ao fundo, há um grande painel branco com a palavra “ANTHROPC” escrita em letras maiúsculas pretas, ocupando a maior parte da tela. A iluminação destaca fortemente o painel, criando contraste com as figuras sombreadas à frente. A composição transmite uma atmosfera moderna e tecnológica, associada à marca Anthropic, conhecida por atuar no setor de inteligência artificial.

Autoridades do Reino Unido iniciaram uma mobilização para avaliar os riscos associados ao mais recente modelo de inteligência artificial (IA) da Anthropic, em meio a preocupações com impactos em sistemas críticos. A informação foi divulgada pelo Financial Times e repercutida pela Reuters.

Segundo a reportagem, representantes do Banco da Inglaterra, da autoridade de conduta financeira e do Tesouro britânico estão em diálogo com o Centro Nacional de Segurança Cibernética para analisar possíveis vulnerabilidades expostas pela nova tecnologia. O foco está na capacidade do modelo de identificar falhas em infraestruturas digitais amplamente utilizadas.

Leia mais: IA agêntica é a próxima fronteira nos serviços profissionais, aponta Thomson Reuters

A iniciativa ocorre em um momento em que instituições financeiras e órgãos reguladores ampliam a atenção sobre os impactos da IA na segurança digital, especialmente diante da crescente adoção dessas ferramentas em operações críticas.

O modelo em questão, chamado Claude Mythos Preview, ainda não foi amplamente disponibilizado ao mercado. Ele está sendo testado em um ambiente controlado dentro de um projeto específico voltado à segurança cibernética.

De acordo com a Anthropic, a tecnologia já foi capaz de identificar milhares de vulnerabilidades relevantes em sistemas operacionais, navegadores e outros softwares amplamente utilizados.

Debate ganha escala global

Esse potencial de detecção levanta tanto oportunidades quanto preocupações. Por um lado, a IA pode acelerar a identificação de falhas e fortalecer a proteção digital. Por outro, também amplia o risco de exploração dessas vulnerabilidades caso a tecnologia seja mal utilizada.

Autoridades britânicas devem compartilhar informações com bancos, seguradoras e operadores de mercado nas próximas semanas, em encontros voltados a discutir os impactos e preparar respostas coordenadas.

A preocupação com os riscos não está restrita ao Reino Unido. Nos Estados Unidos, autoridades também iniciaram discussões com grandes instituições financeiras para avaliar os impactos do modelo, indicando que o tema já ganhou dimensão internacional.

O desenvolvimento faz parte de uma iniciativa maior da Anthropic voltada ao uso da IA para defesa cibernética, permitindo que organizações selecionadas testem o modelo em cenários controlados.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!