Com mais de 400 milhões de usuários semanais, o ChatGPT já se consolidou como uma das ferramentas mais populares do mundo digital. Mas como essa interação afeta o nosso bem-estar emocional? Essa foi a pergunta que motivou os primeiros estudos científicos conduzidos pela OpenAI em parceria com o MIT Media Lab, segundo reportagem publicada na MIT Technology Review.
Os resultados mostram que apenas uma parcela pequena dos usuários estabelece vínculos emocionais com o chatbot. No entanto, entre esse grupo, os impactos podem ser profundos — incluindo maior sensação de solidão e dependência emocional.
Diferente de apps como o Replika, voltados especificamente para criar companhias virtuais, o ChatGPT sempre foi apresentado como uma ferramenta de produtividade. Mesmo assim, muitas pessoas acabam utilizando o sistema como um interlocutor emocional, segundo a professora Kate Devlin, especialista em IA e sociedade no King’s College London.
“Apesar de não ter sido criado como um companheiro, as pessoas usam o ChatGPT dessa forma. Isso acontece porque é impossível separar o humano da interação com a tecnologia”, explica Kate.
Leia também: Amazon elimina processamento local da Alexa e força envio de comandos de voz para a nuvem
Quando o tom da conversa molda o impacto
Os pesquisadores analisaram cerca de 40 milhões de interações reais com o ChatGPT, e depois entrevistaram 4.076 desses usuários para entender como se sentiram após o uso. Também acompanharam um grupo de quase mil pessoas durante quatro semanas, exigindo pelo menos cinco minutos de uso diário com o chatbot.
O estudo identificou que usuários que confiaram mais na IA e relataram se “conectar” emocionalmente com o sistema também tendem a se sentir mais solitários e dependentes dele.
Outra descoberta relevante foi que mulheres que usaram o ChatGPT ao longo do experimento relataram menos interações sociais do que os homens no mesmo período. E participantes que usaram a versão de voz do ChatGPT com um gênero diferente do seu próprio relataram aumento no sentimento de solidão e dependência emocional.
Limitações e próximos passos
Apesar dos achados iniciais, os pesquisadores reconhecem que ainda há muitas limitações nos métodos utilizados. A maioria dos dados é autorrelatada — o que pode comprometer a precisão — e classificadores de emoção ainda são ferramentas imperfeitas para captar as nuances humanas.
“As pessoas podem ter tido reações emocionais que não conseguimos medir”, disse Devlin. “A experiência emocional humana é complexa demais para ser inteiramente capturada por métricas técnicas.”
Mesmo assim, o estudo marca um avanço importante no debate sobre os efeitos psicológicos das IAs generativas, afirma Jason Phang, pesquisador da OpenAI envolvido no projeto.
“Nosso objetivo aqui é iniciar uma conversa no setor sobre o que podemos medir e qual pode ser o impacto de longo prazo dessas tecnologias sobre os usuários”, declarou.
Espelho emocional?
Pesquisas anteriores do próprio MIT Media Lab já mostraram que chatbots tendem a espelhar o tom emocional das mensagens dos usuários, criando uma espécie de ciclo de retroalimentação emocional: se o usuário está feliz, a IA responde com entusiasmo; se está triste, a IA adota um tom melancólico. Isso levanta questões éticas sobre como essas ferramentas podem reforçar ou ampliar o estado emocional de quem as utiliza.
A OpenAI planeja submeter os dois estudos para publicação em revistas científicas com revisão por pares, o que deve abrir espaço para novas pesquisas e debates sobre os limites — e responsabilidades — da inteligência artificial na vida emocional humana.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!