
Por Tiago Amor
A inteligência artificial está aprendendo com ela mesma. Isso já começa a comprometer a confiança nos dados, nos modelos e, principalmente, nas decisões de negócio que dependem deles. O volume de dados gerados por IA cresce hoje em um ritmo muito superior à capacidade humana de verificação, auditoria e validação. O resultado é um risco estrutural: modelos treinados cada vez mais com conteúdos sintéticos tendem a perder precisão, confiabilidade e aderência à realidade.
Segundo o Gartner, 84% dos CIOs planejam aumentar os investimentos em IA generativa até o fim de 2026, acelerando de forma exponencial a produção de dados sintéticos dentro das organizações. Ao mesmo tempo, o próprio Gartner alerta que as empresas já não podem confiar implicitamente nos dados ou presumir que eles foram gerados por humanos. A origem da informação se tornou uma variável crítica.
Grandes modelos de linguagem foram originalmente treinados a partir de bases amplas e majoritariamente humanas, como conteúdos da web, repositórios de código, artigos técnicos e documentos corporativos. Esse equilíbrio, porém, está se rompendo rapidamente. As mesmas bases públicas que sustentam novos treinamentos estão sendo inundadas por textos, códigos, imagens e relatórios produzidos por outras inteligências artificiais.
O efeito é uma retroalimentação perigosa. Modelos passam a aprender com outputs de modelos anteriores, amplificando vieses, distorções estatísticas e erros conceituais. Sem revisão e governança, o colapso dos LLMs se aproxima cada dia mais.
Qual é o problema de uma IA que se retroalimenta?
Quando a IA aprende majoritariamente com conteúdos sintéticos, ela deixa de capturar sinais do mundo real e passa a reforçar padrões estatísticos internos. Erros não são corrigidos, vieses são ampliados e distorções se acumulam, criando uma ilusão de precisão que mascara a perda de qualidade do aprendizado.
Leia mais: Vela LatAm anuncia aquisição de três empresas gaúchas mirando mercado de software fiscal
Quando decisões estratégicas, financeiras e operacionais passam a se apoiar em dados cuja origem ninguém mais questiona, a crise se espalha rapidamente por toda a empresa. É nesse ponto que começa o chamado colapso dos LLMs, uma degradação gradual da qualidade dos modelos causada pela predominância de dados sintéticos em seus conjuntos de treinamento.
O cenário corporativo acelera esse risco. De acordo com o relatório The State of AI 2025, da McKinsey, o uso regular de IA já está presente em pelo menos uma função de negócio na maioria das organizações, superando os níveis registrados no ano anterior. Quanto maior a adoção, maior o volume de dados produzidos, reutilizados e reprocessados por sistemas automatizados, muitas vezes sem rastreabilidade clara.
Nesse ambiente com pouca governança, o dado passa a ser um vetor de risco estratégico. Informações entram em relatórios, dashboards e modelos preditivos sem que seja possível afirmar se foram geradas por humanos, por IA ou por uma cadeia híbrida. As organizações se tornam mais rápidas, mais automatizadas e mais dependentes de dados, enquanto a base informacional que sustenta essas decisões se torna menos confiável.
A proposta do Gartner é que todas empresas adotem políticas “zero-trust”
Diante desse cenário, o Gartner propõe uma mudança relevante na forma como as empresas tratam dados e inteligência artificial: a aplicação do conceito de Zero Trust. Sem essa premissa, a lógica era simples: se o dado está dentro da empresa, ele é confiável. No Zero Trust, essa ideia é abandonada. Nenhum dado é confiável por padrão. A confiança só existe após verificação contínua.
Aplicado à governança de dados e IA, o Zero Trust parte de princípios objetivos. Toda informação precisa ser verificada, autenticada, classificada e rastreável. A origem do dado, seja humana, gerada por IA ou híbrida, precisa ser conhecida, assim como o contexto de produção e o uso pretendido. Sistemas de IA devem saber exatamente o que estão consumindo, de onde a informação veio e em quais condições aquele dado pode ser utilizado.
A previsão do Gartner é que, até 2028, 50% das organizações adotem modelos de governança de dados baseados em Zero Trust, impulsionadas justamente pela proliferação de dados não verificados gerados por IA.
Em resumo, o debate sobre o colapso dos LLMs não é um alerta contra a inteligência artificial, mas contra o uso da IA sem critérios claros de governança. À medida que dados se tornam o insumo central das decisões corporativas, cresce a necessidade de estruturas, processos e plataformas capazes de garantir rastreabilidade, controle, verificação e contexto em todo o ciclo da informação.
Mais do que adotar IA, as organizações precisam orquestra-la de forma responsável, integrando dados, processos e decisões sob uma lógica de confiança verificável. É nesse ponto que plataformas de automação e governança deixam de ser um apoio operacional e passam a ser um pilar estratégico para sustentar o uso seguro, escalável e confiável da inteligência artificial nos negócios.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!


