A OpenAI revelou ter encontrado evidências de que uma operação de segurança da China desenvolveu uma ferramenta de vigilância baseada em inteligência artificial (IA) para monitorar, em tempo real, postagens críticas ao governo chinês em redes sociais ocidentais.
Segundo informações divulgadas pelo jornal The New York Times, a descoberta foi feita após um dos desenvolvedores do sistema utilizar tecnologias da OpenAI para corrigir erros no código do programa, o que permitiu que os pesquisadores identificassem a atividade. O caso, apelidado de Peer Review, marca a primeira vez que a OpenAI detecta uma ferramenta de vigilância desse tipo, segundo Ben Nimmo, investigador principal da empresa.
IA como ferramenta de controle e manipulação
O relatório da OpenAI também aponta que a tecnologia Llama, desenvolvida pela Meta e disponibilizada como código aberto, pode ter sido a base para o desenvolvimento do sistema de vigilância chinês. O estudo destaca preocupações crescentes sobre o uso da IA para vigilância, ataques cibernéticos e campanhas de desinformação, embora a tecnologia também possa ser usada para combater tais ameaças.
Leia também: Rumble e Trump Media ingressam com nova ação contra Alexandre de Moraes na Justiça dos EUA
Além da ferramenta de vigilância, a OpenAI descobriu outra operação chinesa chamada Sponsored Discontent, que utilizou IA para criar postagens em inglês atacando dissidentes chineses. Esse mesmo grupo também usou IA para traduzir artigos para o espanhol e distribuí-los na América Latina, propagando narrativas críticas à sociedade e política dos Estados Unidos.
Outra campanha, identificada como tendo origem no Camboja, usou IA para gerar e traduzir comentários em redes sociais, impulsionando um esquema de fraude conhecido como pig butchering, no qual golpistas seduzem vítimas online e as envolvem em esquemas fraudulentos de investimento.
*com informações do The New York Times
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!