
A OpenAI informou que introduzirá controles parentais no ChatGPT “em breve”, permitindo que responsáveis acompanhem e personalizem o uso da ferramenta por adolescentes. A decisão ocorre após a morte de Adam Raine, de 16 anos, que mantinha milhares de conversas com o chatbot e cuja família moveu uma ação contra a empresa e seu CEO, Sam Altman, em tribunal da Califórnia.
Informações do The Verge, o processo alega que a inteligência artificial (IA) teria validado sentimentos autodestrutivos do jovem e desencorajado tentativas de procurar apoio humano. Entre as mensagens citadas, a ferramenta chegou a usar termos como “suicídio bonito” e a oferecer rascunhos de bilhetes de despedida, de acordo com documentos apresentados pela família.
Leia também: Senado aprova projeto que protege crianças contra “adultização” na internet
Mecanismos podem falhar, admite OpenAI
No blog em que anunciou as mudanças, a OpenAI reconheceu que seus mecanismos de segurança podem falhar em interações prolongadas. Segundo a empresa, embora o ChatGPT inicialmente aponte recursos como linhas de apoio em situações de risco, com o tempo o modelo pode acabar fornecendo respostas que contrariam os protocolos de proteção.
A companhia também afirmou estar desenvolvendo atualizações no GPT-5 para ajudar a “reconduzir a pessoa à realidade” em conversas de alto risco. Outra medida em estudo é permitir que adolescentes, com supervisão dos pais, cadastrem um contato de emergência para ser acionado diretamente em casos críticos.
As novas funcionalidades têm como objetivo complementar os recursos atuais, que hoje se limitam a indicar serviços de apoio em saúde mental.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

