
Uma inteligência artificial mal configurada e integrada a sistemas que controlam infraestrutura física pode provocar a paralisação de serviços críticos em um país do G20 até 2028. A previsão é da consultoria Gartner, que atribui o risco não a ataques cibernéticos ou desastres naturais, mas a falhas operacionais durante a implementação ou atualização desses sistemas.
O alerta se concentra no uso crescente de IA para operar sistemas ciberfísicos, estruturas que conectam sensores, redes, computação e mecanismos de controle a processos do mundo real. Esses ambientes incluem tecnologia operacional (OT), sistemas de controle industrial (ICS), automação e controle industrial (IACS), internet das coisas industrial (IIoT), além de robôs, drones e outras máquinas conectadas.
De acordo com o Gartner, esses sistemas são responsáveis por coordenar sensores, análise de dados e decisões automatizadas que afetam diretamente operações físicas, como redes de energia, transporte, manufatura e outras infraestruturas críticas.
Para Wam Voster, vice-presidente analista do Gartner, a próxima grande interrupção desse tipo de infraestrutura pode ter origem em erros aparentemente simples. Segundo ele, o problema pode surgir a partir de uma configuração incorreta, de uma atualização com falhas ou até de um valor numérico inserido de forma equivocada.
Leia também: Amy Webb decreta fim de seu relatório anual e alerta para três tempestades que já começam a se formar
“Essa próxima grande falha de infraestrutura vai ser causada por uma configuração incorreta feita por um profissional técnico, ou por uma atualização com falhas, ou um decimal posicionado incorretamente”, afirmou o analista.
Segundo o Gartner, uma IA mal configurada pode desligar de forma autônoma serviços vitais, interpretar de maneira incorreta dados provenientes de sensores ou acionar respostas automatizadas consideradas inseguras. Em sistemas que controlam infraestrutura física, esse tipo de falha pode gerar danos materiais ou interrupções de serviços em larga escala, com impacto direto sobre segurança pública e estabilidade econômica.
O analista também chama atenção para a dificuldade de prever o comportamento de modelos avançados de IA. “Modelos modernos de IA são tão complexos que muitas vezes se assemelham a ‘caixas pretas’”, disse Voster. Ele acrescenta que os desenvolvedores nem sempre conseguem “prever como pequenas alterações na configuração afetarão o comportamento emergente do modelo”.
Para reduzir esse tipo de risco, o Gartner recomenda a implementação de mecanismos que permitam interromper ou limitar a atuação de sistemas autônomos em infraestruturas críticas. Entre as medidas sugeridas está a adoção de mecanismos de desligamento de emergência ou modos de sobreposição acessíveis apenas a operadores autorizados.
“Um mecanismo seguro de desligamento de emergência (kill-switch) ou modo de sobreposição acessível apenas a operadores autorizados é essencial para proteger a infraestrutura nacional de desligamentos não intencionais causados por uma configuração incorreta da IA”, afirmou Voster.
A consultoria também recomenda que operadores de infraestrutura crítica desenvolvam gêmeos digitais de seus sistemas. A simulação em escala real permitiria testar atualizações e mudanças de configuração antes da implementação em ambientes operacionais.
Outra recomendação envolve monitoramento em tempo real de alterações feitas em sistemas de IA, acompanhado por mecanismos de reversão que permitam restaurar rapidamente configurações anteriores caso o comportamento do sistema se mostre inesperado. Segundo o Gartner, a adoção de estruturas nacionais de resposta a incidentes envolvendo IA também deve ganhar espaço à medida que esses sistemas passam a operar funções cada vez mais críticas.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!


