Skip to main content
Notícias

OpenAI enfrenta nova denúncia na Europa por alucinações difamatórias do ChatGPT

By 20 de março de 2025No Comments

ChatGPT, OpenAI, inteligência artificial, IA generativa, gpt-4o

A OpenAI está novamente no centro de uma controvérsia regulatória na Europa, desta vez por conta das alucinações do ChatGPT, que geram informações falsas sobre indivíduos. A Noyb, conhecida por sua atuação em defesa da privacidade, apresentou uma queixa formal à Autoridade de Proteção de Dados da Noruega, após um usuário descobrir que a IA havia fabricado uma história difamatória alegando que ele teria assassinado dois filhos e tentado matar o terceiro.

Segundo informações do TechCrunch, a denúncia reacende a discussão sobre o direito à retificação de dados dentro da Regulamentação Geral de Proteção de Dados (GDPR) da União Europeia, que obriga empresas a garantirem que as informações pessoais processadas sejam precisas e corrigíveis. Se confirmada a violação, a OpenAI pode enfrentar multas de até 4% de sua receita global anual.

Leia também: 94% das empresas investem em IA, mas só 21% a usam com sucesso

Alucinações de IA e o risco à reputação

Diferentemente de outros casos anteriores em que o ChatGPT gerava dados biográficos incorretos, como datas de nascimento erradas ou informações imprecisas sobre indivíduos públicos, essa nova denúncia se destaca pela gravidade das acusações fabricadas.

A Noyb argumenta que a OpenAI não pode simplesmente exibir um pequeno aviso informando que o ChatGPT pode errar. Segundo Joakim Söderberg, advogado da Noyb, isso não isenta a empresa de suas obrigações legais. “O GDPR é claro. Dados pessoais precisam ser precisos. Você não pode simplesmente espalhar informações falsas e depois adicionar um pequeno aviso dizendo que pode não ser verdade.”

A organização também destaca que esse não é um caso isolado. O ChatGPT já foi acusado de fabricar histórias de corrupção sobre um político australiano e alegações falsas contra um jornalista alemão, o que reforça a preocupação sobre os riscos das alucinações da IA à reputação das pessoas.

Precedentes e impactos na OpenAI

A OpenAI já enfrentou sanções na Europa por práticas relacionadas à proteção de dados. Em 2023, a Itália suspendeu temporariamente o acesso ao ChatGPT, forçando a empresa a fazer mudanças para se adequar às leis europeias. Posteriormente, a OpenAI foi multada em €15 milhões por processar dados pessoais sem base legal adequada.

Apesar disso, muitas autoridades de proteção de dados na Europa têm adotado uma abordagem cautelosa em relação à regulamentação da IA generativa. O regulador de proteção de dados da Irlanda (DPC), por exemplo, já indicou que não pretende banir essas ferramentas, mas sim entender como aplicar o GDPR ao novo cenário da inteligência artificial.

Por outro lado, a Polônia abriu uma investigação contra o ChatGPT em setembro de 2023, mas até agora não chegou a uma conclusão. Com essa nova denúncia da Noyb, espera-se uma pressão maior sobre os reguladores europeus para agir mais rapidamente contra os riscos das alucinações de IA.

ChatGPT deixou de exibir as alegações, mas o dano pode permanecer

Curiosamente, após uma atualização no modelo de IA do ChatGPT, a resposta sobre o usuário norueguês parou de exibir as informações difamatórias. Agora, o chatbot busca dados na internet antes de responder a perguntas sobre pessoas, reduzindo a probabilidade de gerar informações falsas.

No entanto, a Noyb alerta que a mudança não resolve o problema, pois a OpenAI ainda pode estar armazenando e processando dados falsos internamente, sem que os usuários tenham controle sobre isso.

Para Kleanthi Sardeli, advogada da Noyb, o argumento da OpenAI de que os avisos isentam a empresa de responsabilidade não se sustenta. Segundo ela informou ao TechCrunch, adicionar um aviso dizendo que você não está cumprindo a lei não faz com que a lei deixe de existir.

A queixa foi direcionada contra a sede da OpenAI nos Estados Unidos, sob o argumento de que a filial irlandesa não tem autoridade exclusiva sobre decisões que afetam usuários europeus. Esse detalhe pode acelerar a investigação, ao contrário de outras denúncias que acabaram ficando paradas nas mãos do regulador irlandês.

O que esperar agora?

A denúncia contra a OpenAI pode ser um divisor de águas na regulamentação da IA na Europa. Se as autoridades europeias decidirem agir com mais rigor, a empresa pode ser forçada a adotar mecanismos de correção de dados e garantir que informações falsas sejam permanentemente removidas de seus modelos de IA.

Dado o histórico da União Europeia em aplicar multas severas a empresas que violam o GDPR, a OpenAI pode estar prestes a enfrentar uma das maiores sanções já impostas a uma IA generativa.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!