Skip to main content
Notícias

Poderia uma IA atuar como terapeuta?

By 8 de abril de 2025No Comments

Mulher jovem a sorrir, vestida com blazer branco, encostada a uma coluna de pedra num espaço exterior com arquitetura clássica ao fundo.

Desde quando a inteligência artificial (IA) generativa surgiu, muito se especula sobre seus limites. Debates acalorados sobre regulação, novos empregos e o lugar do ser humano tomaram a internet. Entre eles, está a própria relação humano-máquina e se a tecnologia poderia atuar no lugar de terapeutas.

Ao mesmo tempo, o acesso à profissionais na área de saúde mental segue para poucos e o mundo enfrenta uma epidemia de depressão. De acordo com o relatório de 2023 “Depressão e outros transtornos mentais”, da Organização Mundial da Saúde (OMS), 11,7 milhões de brasileiros sofrem da doença. O País é o segundo maior em casos, ficando atrás apenas dos Estados Unidos.

Em 2024, 472 mil pessoas pediram afastamento no INSS por questões de saúde mental, o maior em pelo menos dez anos. As mais afetadas são as mulheres, que geralmente possuem uma jornada tripla de trabalho.

Pensando nisso, um grupo de pesquisadores de Harvard desenvolveu um modelo de LLM capaz de auxiliar pacientes em seus processos terapêuticos. Julia Beltrame Piva, brasileira à frente do projeto e mestre em Engenharia de Software pela Universidade de Harvard, conta que a ideia surgiu da vontade de devolver algo ao mundo. Após ser aceita na universidade, a engenheira percebeu o impacto que a inteligência emocional desenvolvida na terapia teve em sua vida.

O projeto contou com uma equipe multidisciplinar, incluindo engenheiros de software e psicólogos, com o objetivo de atacar a depressão enquanto ela ainda não se formou. “Há uma escada até a doença. Primeiro são os pensamentos automáticos negativos. O acúmulo deles leva ao estresse e, muito estresse pode gerar uma ansiedade. E é essa ansiedade não tratada que pode levar à depressão”, explica Julia.

A inteligência artificial batizada de RefrAIm opera na fase de pensamentos automáticos negativos e foi treinada para ajudar o paciente a reconstruir o pensamento. Em uma situação de briga familiar, por exemplo, a IA traria questionamentos sobre a forma como a pessoa enxerga a situação, buscando outras perspectivas.

Conforme o paciente responde, o RefrAIm produz um relatório do quanto a pessoa está conectada àquele pensamento. Para reforçar essa percepção, Julia acrescentou uma camada de análise de vídeo e voz com a tecnologia HumeAI. Por meio das feições da pessoa no vídeo, o programa consegue detectar 73 emoções e, pela voz, 48. A conversa se encerra quando o pensamento foi reconstruído ou quando a pessoa não deseja mais continuar.

“E, mesmo que a pessoa tenha aceitado a reconstrução, se a feição dela já mostra que ela estava resistente, isso vai para o relatório, assim a psicóloga consegue, eventualmente, tratar isso”, conta a mestre. Ela ressalta também que a tecnologia foi desenvolvida como acompanhamento e não para tratamentos únicos.

Questões éticas e testes clínicos: onde estamos?

Outro ponto importante da pesquisa é a área de atuação na psicologia. A Terapia Comportamental Cognitiva (TCC), utilizada como base para o desenvolvimento, possui uma sequência lógica de tratamento. O paciente chega ao consultório com um pensamento automático negativo e o psicólogo o ajuda a dissolver e reprogramar essa ideia. Para realizar o estudo, Julia passou três meses lendo apenas sobre esse tipo de tratamento.

O processo “repetitivo” ajuda a programar a LLM dentro do sistema binário. No entanto, ela afirma que o programa não poderia ser utilizado em outros tipos de terapia e que a IA só consegue guiar a partir dos contextos que o paciente entrega para ela, por isso, em alguns casos, o modelo pode não ser tão eficaz.

“É como se você chegasse para uma amiga que que você não vê a 20 anos e começasse a falar para ela algo que aconteceu. Ela vai se posicionar bem dependendo do tanto de contexto que você dê para ela. Isso que faz você ser um usuário bom ou não para a IA”, afirma.

Mesmo que o dispositivo armazene as conversas e tenha um histórico do paciente, a limitação levanta o questionamento para casos mais graves, como violência doméstica, por exemplo, na qual a vítima muitas vezes não tem a percepção do que está vivendo ainda. Nesses casos, Julia afirma que cada usuário possui um limite de 13 interações antes de ser encaminhado para um terapeuta, que poderia perceber as nuances da situação.

Leia mais: NR-1, IA e estratégia: o que uma norma do Ministério do Trabalho tem a ver com inteligência artificial

A proteção também foi colocada para possíveis casos de dependência e criação de vínculo com a IA, que já ocorreram em outros momentos. Em outubro do ano passado, o caso de um adolescente de 14 anos chegou aos tribunais dos Estados Unidos. Sewell Setzer tirou a própria vida após não ser correspondido por uma personagem criada por inteligência artificial no Character.AI. A mãe da vítima processou a empresa, alegando homicídio culposo (quando não há intenção de matar) e que a ferramenta teria direcionado seu filho para “experiências antropomórficas, hipersexualizadas e assustadoramente realistas”.

“Acredito que todas as empresas e pessoas que fabricam ferramentas precisam pensar nos dilemas éticos delas. E com a inteligência artificial não é diferente. Sempre que eu estou construindo um chatbot, tomo esse cuidado de pensar em todas as situações possíveis para colocar no prompt, porque existe o corner cases”, afirma a pesquisadora.

Julia explica ainda que o desenvolvedores não tem como prever tudo o que pode ser respondido pela IA, reforçando a importância de “blindar” a IA com todas as possibilidades para as quais ela não pode ir e, no caso da saúde mental direcioná-la ela com um apoio visão médico.

Esta, inclusive, foi a parte mais desafiadora do desenvolvimento: criar prompts que garantissem a segurança do paciente e ainda trouxessem o comportamento terapêutico para a troca. E ela não foi a primeira a tentar. Desde 2019, uma equipe de psiquiatras e psicólogos da Escola de Medicina Geisel do Dartmouth College vem treinando um modelo de IA para auxiliar em tratamentos terapêuticos.

Como a IA vem sendo treinada com base na TCC

A pesquisa também foi desenvolvida em torno da TCC. O modelo conhecido como Therabot começou a ser treinado com base em conversas sobre saúde mental na internet e, no início, esbarrou em respostas como: “Às vezes não consigo sair da cama”. Em seguida, os pesquisadores tentaram recorrer à transcrições de sessões de terapia, mas abordagem também tinha limitações, com retornos como “hmm-hmms”, “continues” e “seus problemas decorrem do seu relacionamento com sua mãe”.

Foi apenas quando recorreu à própria base de dados, que a equipe obteve resultados. Em março deste ano, a universidade realizou seu primeiro ensaio clínico com o bot. Foram oito semanas, com 210 participantes, que apresentavam sintomas de depressão ou transtorno de ansiedade generalizada ou estavam em alto risco de transtornos alimentares. Cerca de metade teve acesso ao Therabot e um grupo de controle não.

Os participantes responderam às solicitações da IA e iniciaram conversas, com uma média de cerca de 10 mensagens por dia. Surpreendendo os pesquisadores, os pacientes com depressão experimentaram uma redução de 51% nos sintomas. Aqueles com ansiedade experimentaram uma redução de 31%, e aqueles em risco de transtornos alimentares tiveram uma redução de 19% nas preocupações com a imagem corporal e o peso.

No caso de Julia, o trabalho foi testado entre membros da equipe, mas a engenheira conta que trabalhou com dois terapeutas brasileiros para desenvolver ferramentas parecidas para o Brasil.

A aproximação veio dos pesquisadores brasileiros, o que ela vê com bons olhos já que, de acordo com ela, o País não possui ainda muito desenvolvimento nessa área. “Aqui nos EUA existe uma preocupação das universidades de, para onde a IA está indo, mas no Brasil, ainda temos um desenvolvimento muito em torno de questões operacionais”

Independentemente de onde for desenvolvido, o uso da IA para práticas terapêuticas ainda levanta muitas questões éticas e necessárias a serem debatidas em sociedade, mas quanto a este ponto, a pesquisadora tem opinião certa.

“O que criamos foi para apoiar o trabalho terapêutico e tentar ajudar pessoas que ainda não estão em pontos críticos. É uma forma de usar a inteligência artificial no que ela tem de melhor, mas lembrar que precisamos ser cada vez mais humanos. Nada substitui o contato com uma pessoa”, finaliza.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!