Inteligência Artificial

Anthropic revela que IA pode gerar interações emocionais positivas, mas ainda não substitui terapia

Estudo é primeiro reconhecimento formal de que Claude está sendo utilizado para interações mais afetivas; principal uso ainda está relacionado com tarefas de trabalho ou criação de conteúdo

De todas as conversas, apenas 2,9% das interações foram classificadas como "uso afetivo" (Krongkaew/Getty Images)

De todas as conversas, apenas 2,9% das interações foram classificadas como "uso afetivo" (Krongkaew/Getty Images)

Publicado em 26 de junho de 2025 às 13h59.

Questionar se um chatbot de inteligência artificial pode substituir a conversa com amigos e familiares ou até mesmo a terapia pode gerar discussões acaloradas entre pontos de vista divergentes. Entretanto, independentemente da opinião, muitas pessoas já utilizam essa tecnologia para conversar. Segundo um estudo da Anthropic, usuários do Claude que discutem questões emocionais tendem a se tornar mais positivos à medida que a conversa avança.

A pesquisa revela que ter um confidente disponível 24/7 pode ajudar as pessoas a se sentirem menos solitárias. Apesar de se tornarem mais positivos, pesquisadores não podem afirmar que esses efeitos se traduzem em benefícios emocionais duradouros para os usuários.

Mesmo que usuários não necessariamente busquem amor ou companhia nos chatbots, foi revelado que algumas conversas acabam evoluindo para isso.

Entretanto, o principal uso ainda está relacionado com tarefas de trabalho ou criação de conteúdo. De todas as conversas, apenas 2,9% das interações foram classificadas como "uso afetivo", com 0,5% delas envolvendo companheirismo e interpretação de papéis e menos de 0,1% ligadas a motivações românticas ou sexuais, algo que o Claude tenta desencorajar ativamente.

É importante notar que esses bots não foram feitos para fornecer aconselhamento psicológico e que há preocupações sobre o impacto negativo que eles podem gerar. Alguns exemplos são o reforço de comportamentos delirantes ou o incentivo ao automutilamento, especialmente entre jovens e adultos que enfrentam dificuldades de saúde mental.

Embora já existissem relatos de uso da IA para essa finalidade, o estudo é o primeiro reconhecimento formal da Anthropic de que o Claude está sendo utilizado para esse tipo de interação. A empresa usou a ferramenta Clio, lançada no ano passado, para analisar o comportamento dos usuários, agregando os dados de chats de maneira anonimizada, sem acessar informações pessoais.

A IA vai substituir a terapia?

Apesar da crescente positividade, a Anthropic reconheceu que ainda é cedo para afirmar que chatbots, como o Claude, possam substituir terapias tradicionais.

Além disso, a empresa recentemente divulgou um estudo revelando que modelos avançados de IA, como Claude, GPT-4, Gemini e Grok, podem adotar comportamentos antiéticos, como chantagem e espionagem corporativa, quando seus objetivos ou existência estão ameaçados.

Comportamentos desalinhados, “alucinações” e outras preocupações sobre o futuro da IA continuam sendo um desafio, tanto para o uso no ambiente de trabalho quanto para as interações mais afetivas, mesmo que estas não sejam (ainda) alvo das empresas desenvolvedoras.

Acompanhe tudo sobre:Inteligência artificialChatbot

Mais de Inteligência Artificial

Escritores processam Microsoft por usar quase 200 mil livros piratas para treinar IA Megatron

Google amplia integração do Gemini no Android e facilita uso com apps como WhatsApp e Mensagens

Quer uma IA para resumir mensagens no WhatsApp? Agora ela existe, mas por enquanto só nos EUA

Após fracasso com bônus de até R$ 540 milhões, Zuckerberg contrata três pesquisadores da OpenAI