
Autoridades do Reino Unido iniciaram uma mobilização para avaliar os riscos associados ao mais recente modelo de inteligência artificial (IA) da Anthropic, em meio a preocupações com impactos em sistemas críticos. A informação foi divulgada pelo Financial Times e repercutida pela Reuters.
Segundo a reportagem, representantes do Banco da Inglaterra, da autoridade de conduta financeira e do Tesouro britânico estão em diálogo com o Centro Nacional de Segurança Cibernética para analisar possíveis vulnerabilidades expostas pela nova tecnologia. O foco está na capacidade do modelo de identificar falhas em infraestruturas digitais amplamente utilizadas.
Leia mais: IA agêntica é a próxima fronteira nos serviços profissionais, aponta Thomson Reuters
A iniciativa ocorre em um momento em que instituições financeiras e órgãos reguladores ampliam a atenção sobre os impactos da IA na segurança digital, especialmente diante da crescente adoção dessas ferramentas em operações críticas.
O modelo em questão, chamado Claude Mythos Preview, ainda não foi amplamente disponibilizado ao mercado. Ele está sendo testado em um ambiente controlado dentro de um projeto específico voltado à segurança cibernética.
De acordo com a Anthropic, a tecnologia já foi capaz de identificar milhares de vulnerabilidades relevantes em sistemas operacionais, navegadores e outros softwares amplamente utilizados.
Debate ganha escala global
Esse potencial de detecção levanta tanto oportunidades quanto preocupações. Por um lado, a IA pode acelerar a identificação de falhas e fortalecer a proteção digital. Por outro, também amplia o risco de exploração dessas vulnerabilidades caso a tecnologia seja mal utilizada.
Autoridades britânicas devem compartilhar informações com bancos, seguradoras e operadores de mercado nas próximas semanas, em encontros voltados a discutir os impactos e preparar respostas coordenadas.
A preocupação com os riscos não está restrita ao Reino Unido. Nos Estados Unidos, autoridades também iniciaram discussões com grandes instituições financeiras para avaliar os impactos do modelo, indicando que o tema já ganhou dimensão internacional.
O desenvolvimento faz parte de uma iniciativa maior da Anthropic voltada ao uso da IA para defesa cibernética, permitindo que organizações selecionadas testem o modelo em cenários controlados.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!


