Skip to main content

Imagem conceitual em fundo escuro mostrando uma pessoa interagindo com um tablet sobre uma superfície plana. As mãos tocam uma interface holográfica azul composta por vários painéis digitais flutuantes. No centro, há uma tela com um avatar e mensagens de um assistente virtual, com o texto “AI Assistant”. Ao redor, aparecem outros painéis com rótulos como “AI Agents”, “Generative AI” e “ADS”, além de ícones de usuários, gráficos, engrenagens e fluxos de dados. A composição sugere o uso de agentes de inteligência artificial, automação, assistentes digitais e gestão de informações em um ambiente tecnológico avançado, segurança

Cinco incidentes de segurança por ano: o número nada desprezível deve afetar 25% de todas as aplicações corporativas de inteligência artificial generativa até 2028, um aumento considerável em relação aos 9% de 2025, estima o Gartner. A consultoria diz que os incidentes de segurança se tornarão mais comuns conforme as organizações continuam a desenvolver e integrar aplicações de IA agêntica utilizando tecnologias como o Model Context Protocol.

“O MCP foi desenvolvido prioritariamente para interoperabilidade, facilidade de uso e flexibilidade, portanto erros de segurança podem ocorrer sem a supervisão contínua”, diz em comunicado Aaron Lord, diretor analista sênior do Gartner. “Por isso, a taxa de incidentes de segurança menores em aplicações de IA generativa deve crescer em um ritmo acelerado.”

No caso dos grandes incidentes, diz Lord, 15% de todas as aplicações corporativas de IA generativa devem sofrer pelo menos um por ano até 2029, “contra 3% em 2025”.

Leia também: Alemanha usa IA para redefinir o futebol de alto nível; Bayern lidera adoção

O Gartner diz que incidentes irão da exposição de dados até vulnerabilidades ocultas em componentes de terceiros. A proteção contra esses riscos exige processos rigorosos de revisão de segurança, priorização de projetos de baixo risco, mitigação de padrões de ameaças conhecidos e o empoderamento de especialistas do domínio para definir proteções que mantenham a IA agêntica segura.

“Os líderes de engenharia de software devem colaborar com as equipes de dados, segurança e infraestrutura para criar uma revisão formal de segurança para os casos de uso de MCP, para priorizar padrões de baixo risco e excluir explicitamente combinações de alto risco”, diz Lord. “Eles devem reforçar isso com práticas robustas de autenticação e autorização adaptadas especificamente para agentes de IA, e não herdadas de funções de usuários humanos, a fim de manter as permissões estritamente delimitadas.”

A consultoria recomenda que líderes de engenharia de software colaborem com especialistas do domínio e trabalhem de forma retroativa para garantir interações seguras por padrão para a IA agêntica.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!