O envio de dados confidenciais enviados por usuários para aplicações de IA generativa aumentou 30 vezes no último ano. Isso inclui códigos-fonte, dados regulamentados, senhas, chaves de acesso e propriedade intelectual, o que aumenta significativamente os riscos de violações e prejuízos financeiros, quebra de compliance e roubo de propriedade intelectual.
O alerta faz parte de um relatório divulgado essa semana pela especialista em cibersegurança Netskope.
O relatório também alerta que a chamada “shadow IT” – uso de recursos tecnológicos sem aprovação ou supervisão da área de TI e segurança, mas agora também com ferramentas de IA – se tornou um enorme desafio de gestão. Cerca de 72% dos usuários corporativos fazem uso de contas pessoais em aplicações de IA generativa.
Leia mais: Com agentes de IA, Accenture consegue 60% mais eficiência em processos
Até a conclusão deste relatório, diz a Netskope, havia 317 aplicações de IA generativa sendo usadas em ambiente corporativo, incluindo ChatGPT, Gemini e GitHub Copilot. Três a cada quatro (75%) dos usuários em empresas estão acessando aplicações com recursos IA generativa, o que traz ameaças internas não-intencionais.
“Apesar dos esforços para implementar ferramentas IA generativa gerenciadas pelas empresas, a nossa pesquisa mostra que a shadow IT se transformou em shadow AI”, diz em comunicado James Robinson, CISO da Netskope. “Essa tendência contínua, quando combinada com os dados que são compartilhados, ressalta a necessidade de recursos avançados de segurança de dados…”.
Redução de riscos
Ao invés de uma política de “bloquear antes e perguntar depois”, a Netskope recomenda aos líderes de TI buscar uma estratégia balanceada. Isso porque os profissionais querem os benefícios de eficiência e produtividade dessas ferramentas enquanto trabalham.
“Caso contrário, correrão o risco de ter seus dados confidenciais expostos a terceiros que podem usá-los para treinar novos modelos de IA gerando oportunidades para exposições ainda mais amplas dos dados”, diz Ray Canzanese, diretor do Netskope Threat Labs, responsável pelo estudo.
Ao longo do último ano, o Threat Labs detectou aumento significativo na quantidade de organizações que operam infraestrutura de IA generativa localmente, passando de menos de 1% para 54% – e a tendência deve continuar. Apesar de reduzir os riscos de exposição indesejada de dados para aplicações de terceiros em nuvem, a mudança para infraestrutura local gera novos riscos, inclusive vulnerabilidades na cadeia de suprimentos, vazamento de dados e manuseio inadequado das saídas de dados até injeção de prompts, jailbreaks e extração de metaprompts.
O relatório da Netskope pode ser baixado nesse link.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!