Skip to main content

Reino Unido, inteligência artificial, tecnologia, setor público, governo, UK, United Kingdom, IA generativa, TI, microsoft

O governo do Reino Unido apresentou, pela primeira vez, uma avaliação pública e baseada em evidências sobre as capacidades dos sistemas de inteligência artificial (IA) mais avançados em operação hoje. O documento, batizado de Frontier AI Trends Report, foi desenvolvido pelo AI Security Institute (AISI) e consolida dois anos de testes conduzidos em áreas consideradas críticas para inovação e segurança, como cibersegurança, engenharia de software, química e biologia.

De acordo com o Departamento de Ciência, Inovação e Tecnologia do Reino Unido, a iniciativa busca preencher uma lacuna recorrente no debate global sobre IA, frequentemente marcado por projeções e especulações. Em vez disso, o relatório apresenta dados quantitativos sobre o que esses sistemas conseguem fazer em ambientes controlados, oferecendo um panorama mais objetivo da velocidade e da direção dos avanços tecnológicos.

Um dos pontos centrais do levantamento é a evolução dos chamados safeguards, os mecanismos de proteção projetados para garantir que modelos de IA se comportem de acordo com regras e limites definidos. Segundo o AISI, esses mecanismos vêm se fortalecendo ao longo das diferentes gerações de modelos, embora ainda existam vulnerabilidades e variações relevantes entre empresas e plataformas.

Leia também: Engenharia de IA lidera lista de profissões em alta do LinkedIn em 2026

Os testes mostram, por exemplo, que o tempo necessário para equipes especializadas encontrarem um “jailbreak universal”, uma forma genérica de contornar regras de segurança de um modelo, aumentou significativamente. Em comparação com gerações anteriores, esse intervalo passou de minutos para várias horas, o que representa um ganho estimado de cerca de 40 vezes na resiliência dos sistemas avaliados.

Transparência para as capacidades da IA

O relatório deixa claro que seu objetivo não é formular recomendações regulatórias ou antecipar riscos futuros, mas sim oferecer subsídios técnicos para tomadores de decisão no Reino Unido e em outros países. A proposta é ampliar a transparência e o entendimento público sobre as reais capacidades da IA de fronteira, especialmente à medida que essas tecnologias começam a ser incorporadas de forma mais ampla na economia e nos serviços públicos.

Os dados reunidos pelo Instituto indicam um ritmo acelerado de progresso. Em cibersegurança, por exemplo, a taxa de sucesso dos modelos em tarefas de nível iniciante subiu de menos de 9% em 2023 para cerca de 50% em 2025. No mesmo período, um sistema conseguiu concluir, pela primeira vez, uma tarefa considerada de nível especialista, normalmente associada a até uma década de experiência humana.

Na área de engenharia de software, os modelos avaliados passaram a concluir tarefas com duração aproximada de uma hora em mais de 40% dos casos, frente a índices inferiores a 5% observados dois anos antes. Já em química e biologia, os sistemas demonstraram desempenho superior ao de pesquisadores com doutorado em testes de conhecimento científico, além de apoiar usuários sem formação avançada em atividades de laboratório antes consideradas inacessíveis.

Outro dado destacado é o ritmo de mudança. De acordo com o relatório, a duração de algumas tarefas de cibersegurança que a IA consegue executar de forma autônoma, sem intervenção humana, vem praticamente dobrando a cada oito meses, sinalizando uma ampliação constante da autonomia funcional desses sistemas.

Para o ministro de IA do Reino Unido, Kanishka Narayan, o estudo reforça o compromisso do país com o desenvolvimento responsável da tecnologia, combinando testes rigorosos, colaboração com desenvolvedores e fortalecimento de padrões de segurança. Já Jade Leung, assessora de IA do primeiro-ministro e diretora de tecnologia do AISI, destacou que o relatório reúne as evidências públicas mais robustas já produzidas por um órgão governamental sobre a velocidade de avanço da IA de fronteira.

A análise também aponta sinais iniciais de capacidades associadas à autonomia, observadas apenas em experimentos controlados. Nenhum dos modelos testados apresentou comportamentos espontâneos ou prejudiciais, mas o documento ressalta a importância de monitorar esses indícios desde cedo, à medida que os sistemas se tornam mais sofisticados.

Criado em 2023, o AI Security Institute se consolidou como um dos principais centros estatais de avaliação de IA no mundo, atuando em parceria com grandes desenvolvedores para identificar e corrigir fragilidades antes que tecnologias sejam amplamente adotadas. Segundo o governo britânico, o relatório não representa uma previsão nem uma avaliação de riscos atuais, mas um retrato científico das capacidades observadas em testes controlados.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!