
A disseminação de vídeos falsos produzidos com inteligência artificial (IA) nas redes sociais voltou ao centro do debate sobre moderação de conteúdo. Um grupo independente responsável por supervisionar decisões da Meta afirmou que a empresa precisa reforçar seus mecanismos de controle diante da rápida expansão desse tipo de material em suas plataformas.
O alerta foi feito pelo Oversight Board, conselho de supervisão criado pela própria Meta para revisar políticas de moderação. Em uma decisão recente, o grupo criticou a empresa por manter no ar um vídeo gerado por IA que mostrava supostos danos extensos na cidade de Haifa, em Israel, atribuídos a ataques iranianos, sem qualquer aviso indicando que o conteúdo era artificial.
Segundo o conselho, de acordo om informações da BBC, a situação revela falhas na forma como a companhia lida com conteúdos manipulados em contextos de conflito armado, especialmente em momentos de alta circulação de informações nas redes sociais.
O Oversight Board defendeu uma revisão das políticas relacionadas ao uso de inteligência artificial nas plataformas da Meta. Para os especialistas, o crescimento de vídeos falsos ligados a guerras e crises internacionais já está afetando a capacidade do público de distinguir fatos de fabricações digitais.
Na avaliação do grupo, a ausência de mecanismos mais robustos pode gerar um problema ainda maior: a perda generalizada de confiança em qualquer tipo de informação publicada on-line.
A Meta informou que adicionará um rótulo ao vídeo analisado pelo conselho dentro de sete dias. A empresa também declarou que seguirá as recomendações caso encontre conteúdos idênticos ou em contexto semelhante no futuro.
Caso começou com vídeo viral
A análise do conselho foi motivada por um vídeo publicado em junho do ano passado por uma página do Facebook localizada nas Filipinas que se apresentava como veículo de notícias. O material mostrava cenas de destruição na cidade israelense de Haifa, supostamente provocadas por forças iranianas.
Posteriormente, verificações indicaram que as imagens eram falsas e haviam sido produzidas com ferramentas de inteligência artificial.
O conteúdo fazia parte de uma série de vídeos manipulados que circularam nas redes sociais após o início do conflito, alguns com narrativas favoráveis a Israel e outros alinhados ao Irã. Segundo uma análise da BBC realizada na época, esse tipo de material acumulou pelo menos 100 milhões de visualizações em diferentes plataformas.
Apesar das reclamações de usuários e da identificação de que o vídeo não mostrava eventos reais, a Meta optou inicialmente por não rotular nem remover o conteúdo.
Critério considerado insuficiente
Ao responder às críticas, a empresa argumentou que o vídeo não precisava de aviso porque não representava risco direto de dano físico imediato.
Para o Oversight Board, no entanto, esse critério é excessivamente restritivo quando se trata de conteúdos gerados por inteligência artificial sobre guerras ou crises geopolíticas. Segundo o conselho, nesses casos o material deveria receber um aviso de alto risco indicando claramente que foi produzido por IA.
Leia mais: Anthropic processa governo dos EUA após ser classificada como “risco à cadeia de suprimentos”
Além disso, os especialistas afirmaram que o modelo atual da Meta depende excessivamente da ação dos próprios usuários. Hoje, a plataforma se baseia principalmente em duas formas de identificação: quando o autor do conteúdo declara que usou inteligência artificial ou quando alguém denuncia o material à equipe de moderação.
Escala do problema preocupa especialistas
Na avaliação do conselho, essa abordagem não é suficiente para lidar com a velocidade e o volume de conteúdos criados por ferramentas de IA.
O grupo destacou que a empresa precisa rotular vídeos artificiais com muito mais frequência e de forma proativa, principalmente em períodos de crise ou conflito, quando o engajamento nas redes sociais aumenta significativamente.
Segundo o relatório, o atual sistema da Meta não é robusto nem abrangente o suficiente para acompanhar a escala da produção de conteúdo gerado por inteligência artificial.
A empresa lançou o Oversight Board em 2020 com a proposta de criar uma instância semiautônoma capaz de revisar decisões de moderação em plataformas como Facebook, Instagram e WhatsApp. Embora o conselho frequentemente critique decisões da companhia, analistas ainda questionam até que ponto suas recomendações influenciam efetivamente as políticas da empresa.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

