Skip to main content

Ilustração conceitual de inteligência artificial (IA), com um chip central destacado com a sigla "AI" conectado a diversos circuitos e ícones digitais de documentos e dados. Ao fundo, o contorno de um rosto humano em estilo digital e elementos gráficos representando tecnologia, dados e conectividade. A imagem transmite a ideia de processamento de informações e automação através da inteligência artificial (dados, ia, inteligencia artificial, data, integração, integridade, empresas, data, produtividade, gartner, integra)

A especialista em cibersegurança Netskope divulgou recentemente uma pesquisa que traz um alerta comum toda vez que uma nova tecnologia cresce dentro das organizações: a contratação pelos próprios usuários e a falta de supervisão pode trazer problemas. E, claro, a tecnologia da vez é a inteligência artificial generativa, cujas plataformas cresceram 50% em adoção entre usuários finais corporativos.

A chamada “Shadow AI” é aquela em que os funcionários utilizam aplicações de IA não autorizadas pela equipe de segurança, o que continua a agravar os riscos potenciais de segurança, diz a empresa. A empresa explica que há, sim, uma mudança em direção à habilitação segura de aplicações de IA generativa em SaaS, como o ChatGPT e o Copilot, e dos agentes de IA.

Ainda assim, a Netskope estima que mais da metade de toda a adoção de aplicações atualmente é Shadow AI.

Leia também: “Transformação ainda é pequena diante do que teremos”, projeta Marcos Pupo, da Palo Alto Networks

“O rápido crescimento da Shadow IA coloca sobre as empresas a responsabilidade de identificar quem cria novas aplicações e agentes de IA por meio de plataformas genAI e onde as constroem e implementam”, diz em comunicado Ray Canzanese, diretor do Netskope Threat Labs. “As equipes de segurança não querem prejudicar o desejo de inovação de seus colegas de empresa, mas o uso da IA só tende a aumentar. Para proteger a inovação, as empresas precisam reformular seus controles de aplicações de IA e aprimorar as políticas de DLP para incorporar elementos de treinamento do usuário em tempo real.”

Os dados foram publicados no último Relatório de Nuvem e Ameaças do Netskope Threat Labs. A pesquisa analisa a migração do uso corporativo para plataformas de IA generativa, sejam elas em nuvem ou on-premises, e o crescente interesse em desenvolver aplicações de IA e agentes autônomos. É um cenário que, segundo a empresa especialista, “cria desafios de segurança cibernética que merecem a atenção dos líderes”.

Ascensão das plataformas

As plataformas de IA generativa são a categoria de Shadow AI que cresce mais rápido, dada a simplicidade e a flexibilidade para os usuários, diz o relatório. No trimestre encerrado em maio de 2025, o número de usuários dessas plataformas aumentou em 50%.

Por acelerarem a conexão entre dados corporativos a aplicações de IA, os riscos de segurança relacionados a esses dados crescem. O tráfego de redes vinculado ao uso dessas plataformas aumentou 73% em relação ao trimestre anterior. Em maio, 41% das organizações já estavam usando pelo menos uma plataforma de IA generativa: o Microsoft Azure OpenAI (29%), o Amazon Bedrock (22%) e o Google Vertex AI (7,2%) são os mais comuns.

Atualmente, 34% das empresas utilizam interfaces baseadas em Large Language Models (LLMs), sendo o Ollama líder absoluto (33%), e outras, como LM Studio (0,9%) e Ramalama (0,6%) começando a ganhar atenção.

Enquanto isso, diz o estudo, os funcionários experimentam ferramentas e acessam marketplaces de IA em um ritmo acelerado. Os dados indicam que existe massa crítica de usuários criando agentes e explorando recursos de IA disponíveis em soluções SaaS, com o GitHub Copilot presente em 39% das organizações, e 5,5% delas com usuários executando agentes gerados por frameworks populares de IA local.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!