
Produzir vídeos, áudios e fotos falsas com alto grau de realismo deixou de exigir conhecimento técnico avançado, e isso transformou os deepfakes em um novo vetor de fraude digital. Com a maturação dos modelos generativos de inteligência artificial, conteúdos sintéticos antes restritos a especialistas passaram a ficar ao alcance de usuários comuns. Ferramentas gratuitas ou de baixo custo já permitem criar materiais falsos a partir de uma única foto e, em alguns casos, até em tempo real.
“Os deepfakes gerados pelos modelos mais sofisticados são imperceptíveis para o olho humano e, em muitos casos, também para tecnologias tradicionais de detecção”, afirma Davi Reis, Tech Advisor da Unico. Para ele, o risco aumentou porque a tecnologia saiu dos laboratórios universitários e chegou ao mercado de massa sem mecanismos robustos de controle.
Leia mais: Na mira das deepfakes: reflexões sobre o futuro da segurança e autenticidade digital
O que mudou e por quê
O avanço não ocorreu de forma isolada. Ele foi impulsionado pelos investimentos bilionários das indústrias de entretenimento e das redes sociais no desenvolvimento de sistemas capazes de sintetizar imagens e vozes com fidelidade comercial. Como efeito colateral, versões acessíveis dessas tecnologias passaram a circular com barreiras de entrada cada vez menores, permitindo a criação de conteúdos falsos a partir de imagens públicas ou de uma única fotografia.
Em contextos eleitorais, essa acessibilidade amplia o potencial de manipulação, com vídeos falsos pedindo votos ou declarações atribuídas a pessoas públicas e até a figuras já falecidas.
Do ponto de vista corporativo, o problema se divide em duas frentes. De um lado, deepfakes envolvendo figuras públicas afetam o debate coletivo e podem influenciar mercados e reputações de marcas. De outro, cresce o uso direcionado contra pessoas comuns, com consequências financeiras diretas, invasão de contas, roubo de identidade e golpes altamente personalizados.
Os sinais ainda existem, mas estão desaparecendo
Em conteúdos produzidos com ferramentas menos sofisticadas, ainda é possível identificar inconsistências, como movimentos oculares artificiais, reflexos incoerentes nas pupilas, textura de pele excessivamente lisa, distorções no contorno do rosto ou falhas na sincronização labial. Em áudios, vozes com ritmo robótico ou mudanças abruptas de tom também podem indicar manipulação.
O problema é que esses sinais estão se tornando cada vez mais raros. Reis alerta que expressões faciais, movimentos dos olhos e sincronização labial já não são indicadores confiáveis nos deepfakes mais avançados. Uma vez que o vídeo é criado e amplamente distribuído, identificar sua autenticidade se torna progressivamente mais difícil e, para o usuário comum, muitas vezes inviável.
O contexto como principal mecanismo de defesa
Diante desse cenário, a recomendação do especialista muda de foco. A proteção passa menos pela análise visual e mais pela leitura do contexto. “É fundamental avaliar se aquela comunicação era esperada, se faz sentido naquele momento, por aquele canal e com aquele tipo de pedido. A desconfiança saudável passa a ser um mecanismo de defesa”, diz Reis.
Alguns padrões merecem atenção imediata. Vídeos muito curtos, geralmente entre seis e dez segundos, conteúdos que despertam emoções extremas, como indignação ou medo, e declarações de figuras públicas que não foram reportadas por canais oficiais ou veículos jornalísticos confiáveis.
Em situações que envolvem transações financeiras, acesso a contas ou troca de dados sensíveis, a recomendação é buscar validação adicional por outro meio, como uma ligação direta, confirmação formal ou um segundo fator de autenticação.
Leia também: “Agentes de IA estão prestes a transformar o consumo”, afirma diretor da Visa
Empresas do setor de identidade digital, como a Unico, têm concentrado esforços no combate às fraudes direcionadas a pessoas comuns, desenvolvendo soluções de verificação de identidade e mitigação de riscos para ambientes regulados, como bancos, grandes varejistas e plataformas digitais.
Já existem tecnologias capazes de reduzir o risco de deepfakes, especialmente em ambientes regulados que adotam verificações no momento da captura do vídeo, antes que qualquer conteúdo falso possa ser utilizado. A tendência, segundo Reis, é que essas soluções se tornem mais comuns à medida que a ameaça evolui.
A popularização do tema também chegou ao entretenimento. No filme G20 (2025), disponível no Prime Video e estrelado por Viola Davis no papel da presidente dos Estados Unidos, Danielle Sutton, deepfakes são utilizados por terroristas para manipular líderes globais durante uma cúpula internacional. A trama ilustra como a tecnologia já integra o imaginário popular e reforça preocupações que ultrapassam o campo técnico.
O novo imperativo da segurança digital
Em 2026, identificar um deepfake deixou de ser uma questão de percepção visual. A proteção eficaz depende da combinação entre tecnologia avançada, validação contextual e múltiplos fatores de autenticação.
Para empresas e consumidores, desconfiar, checar e confirmar tornam-se parte da rotina da segurança digital em um ambiente onde o que parece real nem sempre é verdadeiro.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias

