Skip to main content

Imagem conceitual em fundo escuro mostrando uma pessoa interagindo com um tablet sobre uma superfície plana. As mãos tocam uma interface holográfica azul composta por vários painéis digitais flutuantes. No centro, há uma tela com um avatar e mensagens de um assistente virtual, com o texto “AI Assistant”. Ao redor, aparecem outros painéis com rótulos como “AI Agents”, “Generative AI” e “ADS”, além de ícones de usuários, gráficos, engrenagens e fluxos de dados. A composição sugere o uso de agentes de inteligência artificial, automação, assistentes digitais e gestão de informações em um ambiente tecnológico avançado.

Por Fabio Henrique Cardoso e Luis Santini

Se os últimos anos foram marcados pela experimentação da IA, em que o sucesso era medido por um chat que respondia a códigos simples, 2026 marca o início da segunda onda da IA generativa. O mercado amadureceu e a pergunta no Board mudou: não se busca mais apenas o ‘potencial’ da IA, mas sua capacidade de execução autônoma e segura. O surgimento de ecossistemas como o Agentic AI reflete essa urgência. Agora, o foco está na capacidade de integrá-los aos fluxos de trabalho complexos e sistemas legados que antes eram barreiras intransponíveis.

Essa tendência já é uma realidade no Brasil. De acordo com um estudo recente National Research Group, a maioria das empresas brasileiras já utiliza agentes de IA em suas operações, evidenciando que a discussão deixou de ser sobre “se” e passou a ser sobre “como” implementar. A verdadeira virada de chave para uma operação inteligente, no entanto, não reside na potência bruta de um único modelo de linguagem, mas na orquestração dos agentes.

O fim da IA “faz-tudo”

O conceito de agente vai muito além de um simples chatbot. Em uma visão estratégica, ele é uma entidade capaz de observar o ambiente, processar informações por meio de LLMs e, sobretudo, agir para alterar esse ambiente. O problema é que, hoje, muitas empresas ainda tentam resolver tarefas gigantescas com uma única IA e acabam esbarrando no velho fantasma da alucinação.

Quando se pede a um modelo que leia um contrato, consulte um banco de dados, calcule um desconto e redija um e-mail de uma só vez, a complexidade se multiplica. O resultado: a probabilidade do erro aumenta. Quanto mais funções concentradas em um único agente, menor o controle sobre o resultado.

A orquestração de agentes surge justamente para resolver esse problema, aplicando à inteligência o mesmo princípio dos microsserviços. Ao dividirmos o problema em micro-tarefas, um agente foca na triagem, outro no diagnóstico e um terceiro na revisão.

Em resumo, a orquestração não é para tudo — é para onde realmente importa: a síntese, a tomada de decisão e o tratamento das exceções em tarefas de maior complexidade.

A2A: a fronteira da colaboração entre máquinas

O próximo salto na eficiência operacional reside na comunicação Agent-to-Agent (A2A). Enquanto o uso isolado de IAs foca na interação humano-máquina, o modelo A2A permite que diferentes agentes colaborem entre si para resolver problemas multidimensionais. No entanto, para o líder de negócios, essa interação exige um nível de auditoria superior para não resultar em caos informacional. Ao dividirmos o problema em micro-tarefas, um agente foca na triagem, outro no diagnóstico e um terceiro na revisão. No centro, o Orquestrador garante que a saída de um seja o insumo correto para o próximo, mantendo o controle absoluto sobre o fluxo.

No mundo real, a comunicação entre agentes deve seguir protocolos estritos de execução, e não apenas trocas de texto lúdicas. Um exemplo claro é a automação da cadeia de suprimentos: um agente de almoxarifado detecta a baixa de um insumo e comunica-se diretamente com um agente de compras, que por sua vez interage com agentes de fornecedores externos para efetivar a transação. A orquestração é o que garante que essa “conversa” entre máquinas resulte em um pedido de compra auditável e não em um erro sistêmico.

Para que essa comunicação seja viável, surgem tecnologias como o A2A, focadas em normalizar a linguagem entre diferentes agentes, permitindo inclusive o uso de inteligências de terceiros de forma segura e integrada.

Leia mais: Cisco investe em estratégia que une segurança e rede para data centers

Governança não é controle, é previsibilidade

Quando agentes começam a agir, segurança e confiabilidade deixam de ser um tema periférico e passam a ser estruturais. Chamamos de Guardrails o conjunto de camadas de verificação (uma lógica de defense-in-depth): um agente gera a proposta, outro valida (inclusive com um segundo modelo revisando a saída antes de ela chegar ao usuário) e um terceiro autoriza e, para ações irreversíveis ou de maior risco, a execução só acontece após uma etapa explícita de confirmação/aprovação (muitas vezes com humano no loop)

Essa separação de papéis é uma das defesas mais eficazes contra prompt injection ( quando alguém tenta induzir o modelo a burlar salvaguardas e a seguir instruções maliciosas). O agente que conversa com o usuário trato o conteúdo como não confiável: detecta sinais de injeção e sanitiza/segmenta a entrada antes de qualquer decisão. Ele não tem permissões críticas e não executa ferramentas.

É também nesse desenho que entram mecanismos como anonimização de dados e protocolos de transação comerciais, como o UCP (Universal Commerce Protocol). Mesmo quando agentes executam compras ou renegociações, eles não “veem” dados bancários. Autorizações vêm do humano — muitas vezes via biometria — e a execução ocorre dentro de trilhas auditáveis. Autonomia, aqui, não é ausência de controle; é controle bem distribuído.

A vantagem competitiva do “maestro”

Na prática, a vantagem competitiva do “maestro” aparece rapidamente. De acordo com o relatório State of ITSM 2025 da SolarWinds, empresas que utilizam IA Generativa em ITSM já reduzem o tempo médio de resolução de incidentes em 17,8%, economizando quase 5 horas por chamado. No entanto, o mercado começa a perceber que esse é apenas o ponto de partida.

Enquanto a IA comum acelera a resposta, é a orquestração de agentes que elimina o gargalo final: a tomada de decisão e a execução. Em setores como TI, a diferença entre uma resposta rápida de um chat e uma resolução automática orquestrada (onde um agente identifica, outro valida e um terceiro executa o reparo) é o que separa a ‘ajuda’ da IA da ‘autonomia real’. O diferencial não está apenas em economizar horas, mas em garantir que essas horas sejam salvas dentro de um fluxo previsível e sem erro. No fim, não se trata de substituir pessoas por máquinas, mas de substituir o improviso por coordenação. O humano não desaparece, ele assume o controle.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!