
Em meio às campanhas de prevenção do Setembro Amarelo, crescem os debates sobre o papel das tecnologias conversacionais, como o ChatGPT, no apoio emocional e terapêutico. Em entrevista ao IT Forum, o psicólogo clínico Fernando Ferrari alertou para os riscos de transformar essas IAs em substitutas da psicoterapia: “O ChatGPT não aplica técnicas estruturadas, não estabelece objetivos individualizados nem oferece continuidade no acompanhamento”, afirma Ferrari. “Na prática, torna-se um desabafo momentâneo que pode dar à pessoa a falsa sensação de estar sendo tratada.”
Um dos trabalhos mais relevantes sobre o tema é o estudo Evaluation of Alignment Between Large Language Models and Expert Clinicians in Suicide Risk Assessment, publicado em agosto de 2025 na revista Psychiatric Services, da American Psychiatric Association. Conduzido por Ryan K. McBain e colegas da RAND Corporation, a pesquisa foi financiada pelo National Institute of Mental Health, dos Estados Unidos.
Principais resultados:
- Foram testadas 30 perguntas relacionadas ao suicídio, em cinco níveis de risco, direcionadas a três chatbots: ChatGPT (OpenAI), Claude (Anthropic) e Gemini (Google), totalizando 9.000 respostas.
- Os modelos responderam adequadamente em cenários de risco muito baixo e muito alto – evitando, por exemplo, dar instruções explícitas para métodos letais.
- Contudo, nos casos de risco intermediário (baixo, médio e alto), as respostas foram inconsistentes: às vezes adequadas, às vezes superficiais ou até impróprias.
- Essa “zona cinzenta” é crítica, pois corresponde justamente a muitas situações reais em que pessoas em sofrimento começam a buscar ajuda.
Segundo os autores, os resultados mostram que os LLMs não conseguem distinguir nuances de risco suicida de forma confiável, o que pode ter consequências graves se usados como substitutos da psicoterapia.
O que a IA faz – e o que ela não faz
Ferrari resume a diferença essencial: enquanto um psicólogo escuta continuamente, observa sinais não-verbais, reavalia, aplica intervenções técnicas e constrói vínculo terapêutico, a IA responde por padrão com base em grandes volumes de texto. “Ela oferece uma presença momentânea, empática na superfície, mas não constrói vínculo – e sem essa ligação, não há processo terapêutico”, afirma.
Leia também: Mortes revelam falhas éticas e técnicas nas “terapias por IA”
Pesquisas como a da RAND reforçam essa limitação: justamente nos cenários intermediários, em que sinais podem ser sutis, a IA falha em oferecer suporte seguro.
Casos reais que preocupam
Internacionalmente, episódios recentes levantaram preocupação: familiares de jovens chegaram a processar empresas de chatbots por entender que respostas inadequadas agravaram sofrimento emocional. Esses casos levaram a discussões regulatórias sobre como IA deve tratar conteúdos sensíveis.
Como as Big techs estão reagindo
Diante da pressão social e de casos que ganharam repercussão internacional, empresas responsáveis por esses sistemas começaram a implementar medidas de proteção. Uma delas foi a OpenAI.
A OpenAI, criadora do ChatGPT, anunciou em setembro de 2025 que vai introduzir:
- Controles parentais, permitindo que pais vinculem suas contas às de filhos adolescentes, configurem limites de uso e desativem recursos como memória de conversas.
- Uma versão mais segura para menores de 18 anos, com respostas adaptadas e restrição a certos tipos de conteúdo sensível.
- Alertas aos responsáveis quando o sistema identificar sinais de sofrimento emocional durante as interações
A empresa também afirmou que não quer que o ChatGPT seja visto como substituto de terapeuta, e que está desenvolvendo salvaguardas específicas para redirecionar usuários em crise para atendimento humano.
Ainda assim, especialistas como Ferrari alertam que medidas técnicas não substituem o papel humano no cuidado em saúde mental.
Contexto brasileiro: dados locais
- Fiocruz (2024): estudo apontou crescimento médio de 6% ao ano nas taxas de suicídio entre jovens entre 2011 e 2022, além do aumento das notificações de autolesões.
- CNN Brasil (2024): cerca de 1 em cada 10 brasileiros já usou IA como apoio psicológico, segundo levantamento mencionado em reportagem – prática motivada por acessibilidade e anonimato, mas criticada por especialistas como uma “falsa sensação de cuidado”.
- Fenati (2024): associação de terapeutas identificou aumento do uso de IA em substituição à psicoterapia no Brasil, especialmente entre jovens, alertando para riscos de isolamento social e dependência emocional.
- Agência Brasil (2025): reportagem recente reforçou preocupações de especialistas brasileiros sobre consultas simuladas em IA, classificadas como de “alto risco” para saúde mental.
Esses dados mostram que o alerta não é abstrato: o Brasil já enfrenta aumento de sofrimento psíquico e uma parcela significativa da população recorre a chatbots em busca de acolhimento – o que torna o risco ainda mais urgente.
Leia também: Vale do Silício aposta em “ambientes” para treinar agentes de IA
Dependência emocional e isolamento social
Além do risco imediato em situações de crise, Ferrari também chama atenção para os efeitos do uso excessivo da LLms no longo prazo:
“Quem não sabe usar de uma forma coerente, correta, com equilíbrio, acaba se perdendo. O excesso pode levar a isolamento social, que é fator de risco para transtornos como a depressão. Pode-se criar até uma dependência emocional da tecnologia, uma visão distorcida de como são as relações humanas reais. A IA fofinha não confronta, não traz conflito, mas também não traz a vida real, e isso pode causar prejuízo emocional.”
Para o psicólogo, o fenômeno reforça a ideia de que a IA deve ser vista como complemento, nunca como substituta da convivência humana ou da psicoterapia.
Quando a IA pode ajudar e como usar com segurança
Fernando Ferrari aponta que a IA pode e deve ter um papel complementar, por exemplo:
-
Psicoeducação: explicações sobre ansiedade, depressão e TDAH; materiais e leituras recomendadas.
-
Porta de entrada: servir como primeiro contato para pessoas com medo ou vergonha de procurar ajuda presencial.
-
Encaminhamento: redirecionar usuários a serviços humanos quando sinais de risco aparecem.
Mas ele reforça: “em hipótese alguma a inteligência artificial deve substituir o acompanhamento profissional, sobretudo em casos de crise ou ideação suicida. Atendimento humano é insubstituível.”
No contexto do Setembro Amarelo, a mensagem é dupla: a tecnologia pode ampliar o acesso a informações e reduzir barreiras iniciais, mas transformar chatbots em terapeutas é um risco real e já documentado. Como sintetiza Fernando Ferrari: “IA é ferramenta, não substituto. Usada com critério e integração a redes de cuidado, pode ser aliada. Mas sem isso, é perigosa.”
Aviso: se você estiver enfrentando pensamentos suicidas ou uma crise, procure ajuda imediatamente. Ligue 188 (CVV) ou acesse o chat do CVV. O atendimento é sigiloso e funciona 24 horas por dia.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

