Cerca de 70% das cargas de trabalho de IA na nuvem contêm pelo menos uma vulnerabilidade não corrigida. Quem faz o alerta é a Tenable, no Relatório Tenable 2025: Riscos da IA na Nuvem. Segundo a pesquisa, a inteligência artificial rodando na nuvem pública é propensa a combinações evitáveis que tornam dados e modelos vulneráveis a manipulação, adulteração e vazamento de dados.
O relatório busca mostrar o cenário de riscos de segurança em ferramentas e estruturas de desenvolvimento de IA em nuvem e em serviços de IA oferecidos pelos três principais provedores: Amazon Web Services (AWS), Google Cloud Platform (GCP) e Microsoft Azure.
Leia mais: XP comunica vazamento de dados de clientes
“A integração entre nuvem e IA é, sem dúvida, um caminho sem volta no ambiente corporativo. Nesse sentido, é importante que haja conscientização sobre a segurança cibernética, pois é preciso planejar e proteger a interação entre diferentes ambientes e tecnologias”, pondera Arthur Capella, diretor-geral da Tenable do Brasil. “A integração da IA em ambientes de nuvem requer uma abordagem robusta a fim de prevenir ataques, vazamentos e garantir a integridade dos dados para que a segurança e a inovação caminhem lado a lado”.
O estudo diz que 77% das organizações têm a conta de serviço padrão do Compute Engine com privilégios excessivos configurada no Google Vertex AI Notebooks. Isso significa que todos os serviços criados neste padrão estão em risco.
Outra descoberta: 14% das organizações que usam o Amazon Bedrock não bloqueiam explicitamente o acesso público a pelo menos um bucket (ambiente virtual onde é possível armazenar e gerenciar dados de forma organizada) de treinamento de IA. E 5% têm pelo menos um bucket excessivamente permissivo.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!