Skip to main content

Imagem de um profissional interagindo com uma tela de aviso de sistema de segurança de computador, destacando um alerta com ícone de aviso e código de programação, setor, Kaspersky, violações

Os casos de violações de políticas de dados relacionados às ferramentas de inteligência artificial generativa dobraram em 2025. Foram em média 223 incidentes mensais envolvendo a tecnologia, mais do que o dobro do ano anterior. Não por acaso, também cresceram o número de usuários e o volume de prompts – 200% e 500%, respectivamente – no último ano.

Os números fazem parte do estudo Cloud and Threat Report: 2026 da Netskope. As informações consideram dados de uso anonimizados coletados pela plataforma Netskope One entre outubro de 2024 e de 2025, incluindo táticas dos atacantes, comportamento dos usuários e políticas das organizações.

Segundo o estudo, cerca de 50% das empresas ainda não possuem políticas efetivas de proteção de dados para aplicações de IA generativa. Isso significa, dizem os autores, que dados sensíveis podem estar sendo enviados para ferramentas de IA sem detecção. E que aplicações pessoais de nuvem continuam fonte de vazamento de dados, respondendo por 60% dos incidentes de ameaça interna.

Leia também: Série Inovadores pelo Mundo: Fernando Brandão e a longa travessia até o computador quântico

O phishing manteve presença como vetor de ataque, com 87 a cada 10 mil usuários ainda clicando em links suspeitos mensalmente, apesar de uma redução modesta ano a ano.

Aplicações corporativas

Segundo o estudo, as empresas ampliar o acesso a versões corporativas de ferramentas de IA generativa, com a proporção de usuários que utilizam apenas contas pessoais caindo de 78% para 47%. Além disso, o 90% das empresas já bloqueiam ativamente uma ou mais aplicações consideradas de risco.

Ray Canzanese, diretor do Netskope Threat Labs, diz que a adoção de IA generativa criou um perfil de risco abrangente e complexo. Nesse cenário, diz, é difícil acompanhar novas ameaças, e princípios básicos de segurança acabam ficando “em segundo plano”.

Ele recomenda que as equipes adotem postura consciente do uso de IA, evoluindo políticas e ampliando o uso de ferramentas já existentes, como DLP, para equilibrar inovação e segurança.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!