
A inteligência artificial (IA) entrou em uma nova fase, menos sobre gerar conteúdo, mais sobre tomar decisões. No SAS Innovate, que acontece nesta semana em Dallas*, nos Estados Unidos, essa transição ficou evidente. O debate deixou de girar em torno do potencial da tecnologia e passou a expor um desalinhamento mais profundo nas empresas. Enquanto os agentes avançam em capacidade e autonomia, a estrutura organizacional, de dados à governança, ainda opera em um modelo que não sustenta esse novo nível de complexidade.
É nesse descompasso que se posiciona Marinela Profi, líder global de Estratégia de IA Generativa e IA Agêntica do SAS. Para ela, o mercado ultrapassou a barreira tecnológica e agora esbarra na preparação das organizações para confiar, controlar e, principalmente, explicar decisões tomadas por sistemas inteligentes. A seguir, a executiva detalha por que o futuro da IA agêntica não será definido por algoritmos, mas pela maturidade das empresas que tentam operá-los.
IT Forum – Nos últimos meses, o mercado migrou do hype da IA generativa para a IA agêntica, mas ainda existem poucos casos de uso reais em escala. Onde você enxerga hoje o principal gargalo: na tecnologia, na governança ou no modelo operacional das empresas?
Marinela Profi – Acredito que a tecnologia para IA agêntica já está madura. O que não está maduro são as organizações que estão olhando para implementá-la. E o conselho que eu dou para qualquer C-level é: não comece a investir em IA agêntica se há problemas de governança de dados, silos, e uma infraestrutura de governança ou um sistema de monitoramento sem maturidade.
A IA agêntica é uma tecnologia extremamente poderosa e que realmente mostra o potencial completo da inteligência artificial, mas ela também exige requisitos. Mais governança, mais responsabilização, mais monitoramento.
E, mais importante do que nunca, precisamos de sistemas que garantam se um agente está tomando a decisão certa e executando a ação correta. Porque até o momento em que uma organização consegue explicar como e por que um agente tomou uma decisão, essa tecnologia não vai funcionar em produção.
IT Forum – Se dados sempre foram um desafio nas ondas anteriores de tecnologia, o que muda agora com a IA agêntica? O problema ainda é qualidade e governança ou estamos falando de uma complexidade diferente, especialmente com dados não estruturados e linguagem?
Marinela – Sim. Dados sempre foram um problema. Ao olharmos historicamente, toda grande evolução tecnológica — big data, Hadoop, cloud, deep learning — sempre volta para a mesma conversa: qualidade de dados. E agora isso é ainda mais crítico, porque não estamos mais lidando apenas com dados numéricos, mas com linguagem. E esse é um tipo de dado que as empresas ainda não estão acostumadas a manipular. Então a importância da qualidade de dados não só continua, ela aumenta.
IT Forum – Onde, na prática, os agentes deixam de ser apenas uma camada de automação e passam a gerar valor real para o negócio?
Marinela – Agentes de IA são muito bons para situações em que se tem tarefas altamente repetitivas e decisões que acontecem várias vezes ao dia. Nesses casos, é possível ter um agente que interage com as ferramentas que hoje um humano usa e toma essa decisão por você. O poder do agente não é só executar tarefas, é tomar uma decisão que você já toma hoje, mas tomar melhor.
IT Forum – E a ideia de autonomia total?
Marinela – Quando a IA agêntica começou a ganhar espaço, havia muito hype em torno de sistemas totalmente autônomos, que entenderiam contexto, tomariam decisões e executariam tudo sozinhos. Depois de um ano, o mercado já percebeu que isso não é possível. Sistemas totalmente autônomos não vão funcionar em produção. Sempre haverá necessidade do humano no processo, mesmo que seja em uma pequena parte do processo. O que existe é um espectro de autonomia: desde agentes altamente especializados e quase autônomos até agentes que operam junto com humanos. O desafio das empresas hoje é entender onde o humano entra, como entra e por quanto tempo.
IT Forum – Como, então, definir o papel do humano nesse modelo?
Marinela – Isso vai ser definido por uma combinação de negócio, TI e regulação. Já vemos regulações como o AI Act europeu exigindo que humanos estejam envolvidos em determinadas decisões. E isso muda o perfil de liderança nas empresas. Antes, buscávamos o melhor líder técnico. Agora, o líder precisa entender processos de negócios, mecanismos de decisão, políticas e como tudo isso se conecta.
IT Forum – Acredita que hoje as empresas estão mais estratégicas no uso de IA?
Marinela – Vejo uma mistura. Algumas empresas ainda dizem “uso IA para tudo”, mas quando você pergunta qual é o valor gerado, não conseguem responder. Precisamos mudar a métrica de sucesso. A pergunta não é “onde posso usar IA?”, mas “qual resultado de negócio eu quero melhorar e como eu meço isso?”. Se você não consegue medir, não deveria implementar.
IT Forum – Isso explica por que tantos POCs não avançam?
Marinela – Esse é um dos motivos. Muitas POCs começam com a curiosidade de testar a tecnologia “vamos ver se funciona” e não com um problema real. E aí faltam respostas para perguntas básicas: por que estamos fazendo isso? Quem se beneficia? Como medimos o valor? Sem isso, não existe escala.
IT Forum – O que muda nas empresas agora com tantos agentes surgindo?
Marinela – Vamos ver cada vez mais funcionários criando seus agentes para tarefas do dia a dia. Isso já está acontecendo, inclusive fora das áreas técnicas. O problema é que as empresas não estão preparadas para monitorar isso. E isso vai levar a uma discussão sobre como medir produtividade e performance. Porque algumas pessoas vão se tornar muito mais eficientes e isso pode nem ser visível para a organização.
IT Forum – Nesse novo contexto, a Shadow AI é um problema?
Marinela – Sim, e está crescendo. Existe uma diferença geracional: os mais jovens tendem a compartilhar mais o uso de IA; profissionais mais experientes, muitas vezes, escondem por receio de parecer menos capazes. Mas o problema maior é outro. Estamos começando a usar IA para pensar por nós. E isso é perigoso. Quanto mais se confia na IA, menos se confia em si mesmo.
IT Forum – O que esperar desse mercado nos próximos 18 a 24 meses?
Marinela – Do ponto de vista corporativo, veremos mais casos reais e um amadurecimento na forma de medir o retorno sobre o investimento (ROI) para IA agêntica. Ainda não há benchmarks claros, isso deve começar a surgir agora. Do ponto de vista individual, veremos um avanço grande na integração com dispositivos e no uso da IA no dia a dia. Ainda estamos no começo.
*A jornalista viajou a convite do SAS
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!
