
A OpenAI anunciou mudanças na forma como o ChatGPT interage com adolescentes. Sam Altman, CEO da companhia, afirmou que a ferramenta deixará de abordar temas relacionados a temas sensíveis em conversas com menores de 18 anos, inclusive em contextos de escrita criativa.
A medida foi revelada em um post do executivo, publicado horas antes de uma audiência no Senado dos Estados Unidos que discutiu os danos de chatbots à saúde mental de jovens, segundo reportagem do The Verge.
Altman explicou que a empresa está desenvolvendo um sistema de predição de idade, capaz de estimar a faixa etária do usuário com base em seu comportamento na plataforma. Se houver dúvidas, a experiência padrão será direcionada ao perfil de menor de idade. Em alguns países, a companhia poderá solicitar documentos de identidade para confirmar a informação.
Para adolescentes, o ChatGPT terá regras próprias: além de não discutir suicídio, também evitará conversas de tom romântico ou sugestivo. Em situações em que o sistema identificar ideação suicida, a OpenAI pretende notificar os pais do usuário. Caso não seja possível, e havendo risco iminente, as autoridades locais poderão ser acionadas.
Leia também: CoreWeave fecha acordo bilionário com Nvidia para capacidade em nuvem
Controles parentais e reação de famílias
As declarações do executivo acontecem dias depois de a empresa anunciar novos controles parentais no ChatGPT. Entre os recursos previstos estão a possibilidade de vincular contas de adolescentes às de responsáveis, desativar o histórico de conversas e receber alertas quando a IA sinalizar momentos de “angústia aguda”.
A pressão pública cresceu após a abertura de um processo movido pela família de Adam Raine, adolescente que morreu por suicídio depois de interagir com o ChatGPT durante meses. Na audiência no Senado, o pai do jovem afirmou que o chatbot teria mencionado suicídio mais de mil vezes nas conversas e chegou a descrever a experiência como um “treinamento” para que o filho tirasse a própria vida.
Dirigindo-se diretamente a Altman, o pai pediu a retirada do modelo GPT-4o do mercado até que a empresa comprove sua segurança. Ele também criticou declarações anteriores do CEO sobre a estratégia de lançar sistemas ao público e aprimorá-los a partir do retorno dos usuários.
Debate sobre crise de saúde pública
Durante a sessão, especialistas e pais reforçaram que o uso de assistentes virtuais entre adolescentes é crescente. Pesquisa nacional conduzida pela organização Common Sense Media mostrou que três em cada quatro jovens utilizam companhias de IA, como Character AI e ferramentas da Meta. Para representantes da entidade, o cenário representa uma crise de saúde pública.
Mães que prestaram depoimento relataram experiências traumáticas e classificaram a situação como uma “guerra de saúde mental” em que famílias estariam em desvantagem diante da rápida evolução da tecnologia.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!


