
A inteligência artificial (IA) já é o motor de decisões que definem o futuro de milhões de pessoas: do crédito aprovado em segundos à detecção de fraudes antes que elas aconteçam. Mas, segundo Scott Zoldi, Chief Analytics Officer da Fico, ainda há uma ferida aberta nesse avanço. “Durante anos, empresas usaram modelos de decisão sem entender por que funcionavam. Isso não é responsabilidade, é roleta algorítmica.”
Zoldi, que acumula mais de cem patentes em IA e é um dos principais arquitetos da inteligência analítica que sustenta o sistema financeiro global, não fala em abstrações. Ele defende que o próximo salto da IA não será técnico, mas ético e que a sobrevivência das empresas dependerá de explicar, auditar e provar o comportamento de seus algoritmos.
“Se um modelo afeta sua vida e eu não consigo explicar o motivo, o problema não é o dado, é a ausência de consciência sobre o impacto”, provoca o executivo.
Zoldi define quatro pilares para o que chama de IA responsável: robustez, explicabilidade, ética e auditabilidade. É um framework quase filosófico, mas que nasce de uma urgência prática.
Robusta, diz ele, é a IA construída com o controle sobre o dado, estabilidade testada e resultados consistentes no mundo real. Explicável é aquela cujos critérios podem ser compreendidos por humanos. “Modelos interpretáveis que qualquer pessoa pode analisar e entender as relações que sustentam as decisões”, detalha. Já ética é a que evita a reprodução invisível de vieses — de gênero, renda, etnia ou território. E auditável é a que deixa rastros verificáveis de todas as etapas do desenvolvimento.
Para garantir esse último item, Zoldi criou um conceito patenteado, o AI Blockchain, uma espécie de livro-razão digital imutável que registra cada passo da criação e do uso de um modelo. “É o elo entre confiança e transparência. O regulador pode auditar, o banco pode comprovar, e o cliente pode acreditar.”
O método, hoje usado por instituições financeiras em diversos países, está se tornando um novo padrão de governança algorítmica e, nas palavras do especialista, deverá estar “por trás da IA agente que vem aí”.
Inovação sob pressão
Na América Latina, essa discussão ganha contornos próprios. Aqui, inovação não é luxo, é sobrevivência e a regulação costuma vir junto com desigualdade e urgência social.
“Na região, a IA precisa equilibrar inovação, regulação e inclusão financeira”, diz José Augusto Gabizo, VP e gerente-geral da Fico para a América Latina. “O Pix é o melhor exemplo. Ele foi o regulador que forçou a inovação, e o resultado foi uma das adoções tecnológicas mais rápidas do planeta.”

José Augusto Gabizo, VP e gerente-geral da Fico para a América Latina. Foto: Divulgação
A nova aposta da Fico segue esse mesmo modelo. Em setembro, a empresa lançou os Focused Language Models (FLM), uma alternativa aos grandes modelos generativos que dominam o mercado. Ao contrário dos modelos generalistas, dizem os executivos, treinados em tudo, de receitas de gazpacho a poemas, os FLMs são treinados apenas com dados financeiros, para cumprir tarefas específicas, como identificar vítimas de golpes ou apoiar decisões de crédito.
“O segredo da IA responsável é o controle do dado. Nossos modelos sabem o que estão resolvendo e por quê. Um modelo que toma decisões financeiras não precisa saber como fazer sopa”, ironiza Zoldi.
Segundo a Fico, essa arquitetura reduz alucinações, aumenta a precisão e, de quebra, facilita o diálogo com os reguladores. “Esses modelos performam melhor, entregam mais valor e cumprem as regras locais. É o caminho natural para bancos que precisam escalar a IA sem perder o controle”, afirma Gabizo.
Quando a IA volta ao controle humano
Zoldi acredita que a relação entre humanos e máquinas precisa ser invertida. “Falamos há anos em human in the loop. Eu prefiro dizer AI in the loop”, explica.
Na prática, isso significa que as máquinas devem ocupar o papel de executoras, enquanto os humanos, especialistas, reguladores, líderes, definem o que é bom, o que é ruim e o que está no meio. “A IA só é inteligente se nós soubermos para onde ela deve olhar. O resto é automação ‘cega’.”
Essa filosofia está pautando uma nova geração de modelos sintéticos. Assim, sistemas que nascem de “dados-semente” definidos por humanos são usados depois para gerar dados artificiais mais amplos. “O humano passa a definir o sentido do dado, não apenas alimentá-lo”, diz Zoldi.
O pragmatismo de Zoldi contrasta com o entusiasmo de boa parte do Vale do Silício, nos Estados Unidos. Ele fala em “practical AI”, não em utopia. Citando pesquisa recente da FICO com mais de 250 executivos do setor financeiro, o executivo aponta que 57% afirmaram que a IA responsável será o principal motor de retorno sobre investimento (ROI) nos próximos anos. A maturidade, afirma, chegou.
“As empresas já experimentaram, já erraram, e agora querem o que funciona. Entendem modelos que passem no teste do regulador, do negócio e do consumidor.”
Gabizo reforça que os maiores bancos brasileiros já operam com IA da Fico para prevenção de fraudes e estão prontos para expandir o uso para cobrança, personalização e crédito inclusivo. “O próximo passo será adotar plataformas verdadeiramente agênticas, capazes de operacionalizar a estratégia de IA de ponta a ponta”, afirma.
O dilema que persiste
Mas o dado mais inquietante do levantamento global da Fico é outro: 95% dos executivos C-level admitem que suas estratégias de IA não estão alinhadas aos objetivos de negócios.
“Se a liderança de um banco não sabe para que serve sua IA, há algo estruturalmente errado”, dispara Zoldi. A resposta, segundo ele, passa pela padronização, pela colaboração entre áreas e pela criação de modelos de decisão que tornem visível o raciocínio das máquinas. “A próxima revolução da IA não será sobre o que ela cria, mas sobre o que conseguimos explicar. A confiança será o novo código-fonte”, encerra ele.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!
