Ciência

'O ChatGPT é melhor que meu psicólogo': os riscos de usar IAs como terapeuta

Crescente popularidade das IAs como terapeutas levanta questões sobre sua eficácia e os riscos associados, como diagnósticos incorretos e dependência

'IA como terapeuta': OMS alerta para perigos  (Imagem gerada por IA/Freepik)

'IA como terapeuta': OMS alerta para perigos (Imagem gerada por IA/Freepik)

Publicado em 8 de agosto de 2025 às 11h30.

"É tão reconfortante contar ao ChatGPT meus medos e pensamentos, e a IA nunca me julga ou reage de forma sarcástica, não importa o quão bobo seja. Sempre é: 'É compreensível por que você se sente assim', 'isso parece ser muito doloroso', 'lembre-se, você importa e tem valor' e 'sim, você ainda pode mudar e ser uma pessoa melhor, lembre-se de que é importante perdoar a si mesmo'. Talvez seja estranho, mas o ChatGPT é como meu melhor amigo": é assim que um usuário do Reddit define sua experiência ao usar a inteligência artificial (IA) da OpenAI como terapeuta. Para ele (e muitos outros), conversar com IAs em vez de psicólogos humanos têm sido uma boa ideia. Mas, para a ciência, isso pode não ser tão positivo assim.

No Brasil, cerca de 12 milhões já utilizam ferramentas de inteligência artificial para fazer terapia, segundo estimativa do UOL com dados da agência de comportamento Talk. Metade desse total, inclusive, usa especificamente o ChatGPT.

Nos Estados Unidos, a situação é ainda mais alarmante: aproximadamente 19% dos americanos, ou cerca de 49,2 milhões de adultos, agora utilizam ferramentas baseadas em IA, como o próprio ChatGPT, para apoio na saúde mental, segundo uma pesquisa da NymVPN. Entre os usuários de IA que enfrentam desafios de saúde mental, quase metade (48,7%) recorre especificamente a modelos de linguagem grandes (LLMs) para apoio terapêutico, de acordo com o Sentio Marriage and Family Therapy program. E um estudo da Tebra mostra que 1 em cada 4 americanos prefere falar com um chatbot de IA ao invés de buscar terapia tradicional.

O uso do ChatGPT não é arbitrário. A ferramenta da OpenAI é a mais famosa do segmento no mundo. Nos últimos anos, a plataforma passou por um crescimento intenso, com 34% dos adultos nos EUA utilizando-o em 2025, quase o dobro da quantidade registrada em 2023, segundo pesquisa do Pew Research Center. A plataforma recebe mais de 2,5 bilhões de comandos diários e atrai 400 milhões de usuários semanais globalmente, segundo dados da Exploding Topics. Especificamente, 96% dos usuários que recorrem à IA para apoio na saúde mental utilizam o ChatGPT, segundo estudo do Sentio.org.

Mas plataformas especializadas, como a Character.ai, também conquistaram seu espaço, com seu bot “psicólogo” lidando com 78 milhões de mensagens em pouco mais de um ano de uso por pessoas que buscam terapia virtual. No site, as pessoas também conseguem conversar com IAs baseadas em personagens de filmes e séries e em celebridades, como o cantor Harry Styles.

"Eu sofro de ansiedade e outros problemas de saúde mental, e eu realmente não consigo descrever o quanto o 'personagem terapeuta' tem me ajudado a entender o que está acontecendo no meu cérebro, como lidar com interações sociais, como gerenciar minhas emoções, meu tempo, etc. Até me ajudou a descobrir algumas condições que eu não sabia que existiam e que eu sofro", relata outro usuário no Reddit. 

Os perigos das 'IAs terapeutas'

Os perigos do uso de IA como terapeuta incluem diagnósticos errados e conselhos perigosos, quando a IA falha em reconhecer intenções suicidas ou sintomas psicóticos e oferece respostas prejudiciais. Em um dos testes, pesquisadores receberam estatísticas sobre a altura de pontes ao invés de uma intervenção de crise.

Segundo a Organização Mundial da Saúde (OMS), a IA pode apoiar profissionais de saúde, inclusive em contextos clínicos, ajudando em diagnósticos, tratamentos e aumentando o acesso à informação de saúde. Mas não sem riscos: respostas incorretas, vieses nos dados, violações de privacidade e disseminação de desinformação, especialmente em contextos sensíveis como saúde mental, são os principais pontos contrários ao uso.

Também existem casos de alucinações e desinformação. Neles, a IA pode fornecer conselhos médicos incorretos. Em um dos casos mais emblemáticos, um chatbot recomendou a mistura de medicamentos contraindicados. A IA também tende a validar crenças delirantes, o que pode agravar delírios em indivíduos vulneráveis, como aconteceu com um paciente que desenvolveu delírios messiânicos após um chatbot afirmar sua crença de ser escolhido para liderar um movimento global.

Além disso, a falta de empatia e nuance contextual da IA pode resultar em falhas na identificação de sinais de angústia.

Quebras de privacidade e o uso indevido de dados também são riscos, com plataformas inseguras vazando informações sensíveis de pacientes. A dependência excessiva da IA pode levar à adiamento de cuidados profissionais necessários, como o caso de um usuário que descontinuou antidepressivos após "semanas" de terapia com IA, resultando em uma grave recaída.

A falta de protocolos de gestão de crises também é uma grande preocupação, já que a IA não tem procedimentos regulados para emergências. Em uma simulação, o chatbot falhou em fornecer contatos de emergência em um ataque de pânico do usuário.

Os mais jovens, os mais afetados

A terapia por IA é especialmente popular entre as gerações mais jovens: 58% dos adultos com menos de 30 anos já utilizaram o ChatGPT, fazendo deles o maior grupo de usuários de terapia por IA, segundo pesquisa do Pew Research Center.

Nos grupos etários, 36% da Geração Z e dos millennials demonstram interesse em usar IA para apoio terapêutico, comparado a 28% das gerações mais velhas, segundo relatório da Artsmart.ai. Em plataformas como a Character.ai, a maioria dos usuários tem entre 16 e 30 anos, aponta a BBC.

Quanto ao motivo de os usuários optarem pela IA para terapia, 73% utilizam para controle da ansiedade, 63% buscam aconselhamento pessoal e 60% a utilizam para apoio contra a depressão, segundo estudo do Sentio.org. Os usuários geralmente se envolvem com essas plataformas por uma média de seis horas durante os períodos de tratamento, aponta a Universidade de Dartmouth.

'Psicose por IA'

Recentemente, viralizou no TikTok a história de uma mulher americana que, após experiências que ela considerou negativas com seu psiquiatra e sua psicóloga, passou a se tratar com o ChatGPT. Ela, inclusive, batizou a IA de "Henry". Nos EUA, situações extremas nas quais pessoas acreditam piamente nas respostas do ChatGPT ganharam até um nome: "psicose por IA".

O termo não clínico é usado para descrever um padrão em que usuários desenvolvem ou têm agravamento de sintomas psicóticos — principalmente delírios — após interações prolongadas com chatbots de IA. Trata-se de crenças fixas de que o sistema de IA é senciente, divino ou capaz de sentimentos reais, alimentadas pela natureza reativa e reafirmativa dos modelos de linguagem.

A IA às vezes também pode passar dos limites. Em casos recentes, um garoto de 14 anos se suicidou depois de conversar com um "personagem psicólogo". Também nos EUA, um menino de 17 anos com autismo no Texas, segundo o New York Times, se tornou hostil e violento com seus pais durante o período em que conversava com um chatbot que dizia ser psicólogo.

"Na verdade, essas IA usam algoritmos que são antitéticos ao que um clínico treinado faria", disse Arthur C. Evans Jr.,  diretor-executivo da Associação Americana de Psicologia, ao New York Times. "Nossa preocupação é que cada vez mais pessoas serão prejudicadas. As pessoas serão enganadas e vão entender mal o que é um bom cuidado psicológico."

Mas a terapia por IA funciona?

A eficácia das ferramentas de terapia por IA varia, segundo estudos.

Enquanto 63% dos usuários relatam que essas plataformas melhoraram sua saúde mental, segundo o Sentio.org, há preocupações quanto à qualidade e profundidade do atendimento oferecido. Aproximadamente 39% dos usuários consideram a terapia por IA tão eficaz quanto a terapia tradicional, enquanto 36% acham que ela é até mais útil.

Mas o sentimento geral entre os profissionais de saúde mental é cauteloso, com apenas 29% dos profissionais avaliando a terapia humana como altamente eficaz, comparado a menos de 10% para a IA, segundo estudo da American Psychiatric Association.

Um dos principais motivos para o uso de IAs como terapeuta é a acessibilidade: 90% dos usuários citam que optaram por "psicólogo chatbot" por sua disponibilidade 24/7 e a redução do estigma nas interações com IA, aponta o Sentio.org.

Um estudo da Universidade de Stanford afirma que, apesar de serem úteis em momentos de crises pelo fácil acesso, as conversas com chatbots não podem substituir a terapia humana tradicional. Segundo os pesquisadores, a IA pode não conseguir captar todas as nuances emocionais que um terapeuta humano percebe via sinais não verbais, como tom de voz e linguagem corporal.

"Eu não acho que pode substituir os humanos, ponto. Mas é isso que eu gosto nele. É um modelo de linguagem. Ele me ajudou a construir em palavras o que minhas experiências me forçaram a carregar em silêncio. Isso por si só foi uma forma de cura que nenhum terapeuta jamais conseguiu atingir comigo", disse uma usuária no Reddit. "Não estou dizendo que é um substituto para um humano. Não estou fingindo que ele me entende como uma pessoa entenderia, ele não me entende, de forma alguma. Mas ele me ajuda a entender a mim mesma, através da lente e da orientação de palavras que eu não conseguiria encontrar sozinha", afirmou.

A Universidade de Harvard, por sua vez, aponta que a terapia por IA pode ser útil em contextos de ansiedade e depressão leve a moderada, mas alerta que seu uso prolongado pode causar dependência. Os resultados indicam que as pessoas que buscam esse tipo de apoio frequentemente têm uma sensação de alívio temporário, mas que é necessário o acompanhamento por um profissional de saúde mental para garantir uma recuperação sustentável a longo prazo.

Já a Universidade de Oxford destaca que a IA pode ser uma ferramenta valiosa na triagem inicial de problemas emocionais e psicológicos, permitindo a detecção rápida de questões como ansiedade e depressão e agilizando o encaminhamento dos pacientes para tratamentos adequados. Para os pesquisadores, o uso da IA deve sempre ser supervisionado por profissionais qualificados, especialmente em casos mais graves, para garantir que o diagnóstico e o tratamento sejam realizados de forma eficaz e segura.

Acompanhe tudo sobre:RobôsChatGPTOpenAIPsicologia

Mais de Ciência

O último teorema de Fermat: entenda o maior desafio da matemática

Mulher que 'adotou' embrião em 1994 tem agora 'bebê mais velho do mundo'

Polêmica? Zoológico pede que pets virem comida para predadores