O lançamento do ChatGPT transformou a forma como interagimos com a inteligência artificial, fazendo com que as conversas com chatbots pareçam uma segunda natureza — seja para atendimento ao cliente, assistência pessoal ou entretenimento. Agora, milhões de pessoas estão se voltando para a IA para uma das tarefas mais pessoais: terapia.
O que é um terapeuta de IA?
Terapeutas de IA, ou chatbots de terapia, usam inteligência artificial para fornecer suporte de saúde mental por meio de conversas automatizadas e exercícios terapêuticos. Embora projetados para imitar interações humanas, os terapeutas de IA não pretendem substituir terapeutas humanos, pois não têm a inteligência emocional e a compreensão diferenciada de profissionais de saúde mental treinados.
Com uma escassez global de terapeutas e um aumento de pessoas que precisam de ajuda, esses bots com tecnologia de IA têm como objetivo preencher a lacuna, oferecendo assistência de saúde mental barata — ou gratuita.
E muitas pessoas estão usando-os, com aplicativos como Woebot e Youper acumulando mais de um milhão de downloads cada. Terapeutas de bate-papo de IA foram implementados em todos os lugares, de uma maternidade no Quênia a campos de refugiados na Síria. Nos Estados Unidos, alguns aplicativos foram até mesmo reconhecidos pela Food and Drug Administration (FDA) e estão sendo testados clinicamente.
Embora os chatbots terapêuticos possam ser uma ferramenta acessível para gerenciar a saúde mental, ainda há preocupações sobre quão eficazes — e éticos — eles são para atender às complexas necessidades emocionais dos humanos.
Como a terapia de IA funciona exatamente?
Os chatbots de terapia são usados para dar suporte a pessoas que lidam com depressão leve, solidão, ansiedade e outros problemas de saúde mental. Quando as pessoas vêm até eles com um determinado problema ou estressor, esses bots respondem de maneiras que um terapeuta real faria — eles fazem perguntas, sugerem mecanismos de enfrentamento, definem metas e se oferecem para responsabilizar os usuários. Em alguns casos, eles usam IA para rastrear, analisar e monitorar o humor da pessoa, imitando um terapeuta humano.
Apesar de suas capacidades, esses chatbots não são um substituto para terapeutas reais. Eles não podem fazer diagnósticos ou prescrever medicamentos, e não são mantidos nos mesmos padrões éticos e legais que os profissionais de saúde licenciados. Mas eles podem fornecer uma espécie de “simulação” do que é tipicamente feito na terapia de conversação, disse Chaitali Sinha, vice-presidente sênior de saúde e desenvolvimento clínico no aplicativo de terapia de IA Wysa. “Esses chatbots podem realmente falar com você e ajudá-lo a trabalhar os pensamentos que você está tendo.”
Os chatbots também são usados em conjunto com a terapia convencional. Eles oferecem conselhos personalizados e estratégias de enfrentamento — como exercícios respiratórios, lembretes de diário e palavras de afirmação — aos pacientes entre as sessões com seus terapeutas humanos. A ideia é que esse cuidado adicional pode não apenas ajudar os pacientes a gerenciar melhor sua saúde mental, mas também pode servir como uma ferramenta de detecção precoce de risco para os clínicos, ajudando-os a identificar problemas potenciais antes que se tornem mais sérios.
“É uma maneira de ter continuidade, especialmente se o terapeuta também tiver acesso e puder ver os horários em que você está falando com ele e quais são as conversas”, disse Jessica Jackson, uma psicóloga licenciada baseada no Texas. “Acho que pode ser usado como um complemento à terapia. Não acho que seja um substituto para a terapia.”
A terapia com IA é eficaz?
Pesquisas sobre a eficácia da terapia de IA são limitadas, mas descobertas iniciais sugerem que os chatbots podem complementar a terapia convencional e ajudar a reduzir sintomas de depressão, ansiedade e estresse (pelo menos no curto prazo).
Outro estudo indica que processar traumas e emoções por meio da escrita é uma estratégia de enfrentamento eficaz, o que pode sugerir que conversas com um chatbot podem ser benéficas — mesmo que não repliquem perfeitamente a experiência da terapia.
Dito isso, o uso de chatbots em saúde mental ainda está em seus primórdios, e mais pesquisas são necessárias para determinar melhor quão eficaz a terapia assistida por IA realmente é a longo prazo.
“Até que tenhamos dados realmente sólidos de que uma experiência com IA é tão boa ou melhor do que a terapia tradicional, acho que precisamos ter muito cuidado ao recomendá-la como alternativa”, disse Brent Franson, fundador e CEO do aplicativo de bem-estar Most Days, à Built In.
Benefícios dos chatbots de terapia de IA
Assim como os terapeutas humanos, os chatbots podem capacitar os usuários a dizer o que querem sem o medo de ofender ou sobrecarregar alguém, disse Jackson. “É só sobre mim. E posso abordar minhas necessidades sem ter que me preocupar com o que está acontecendo com a outra pessoa.”
Os chatbots também oferecem um conjunto exclusivo de benefícios que melhoram a saúde mental:
Disponível 24/7
Até mesmo o terapeuta mais dedicado do mundo precisa comer, dormir e atender outros pacientes. Mas um chatbot é livre para falar quando uma pessoa quiser, e pelo tempo que ela quiser — seja às 2 da manhã quando ela não consegue dormir ou durante um ataque de ansiedade em um jantar de feriado. Não há salas de espera ou consultas, e as respostas são instantâneas.
Sem tempos de espera
Os defensores da terapia por chatbot argumentam que é uma forma prática de abordar a crescente procura global por cuidados de saúde mental, numa altura em que simplesmente não há clínicos suficientes para todos.
Nos Estados Unidos, por exemplo, as pessoas podem esperar semanas ou até meses para consultar um terapeuta (a menos que tenham seguro). Ao mesmo tempo, a organização sem fins lucrativos Mental Health America estima que mais da metade (54,7%) dos adultos norte-americanos com uma doença mental não recebem tratamento, totalizando mais de 25 milhões de indivíduos.
“Não temos provedores suficientes para tantas pessoas”, disse Jackson. “Então, mesmo que eu esteja interessado, tenho que conseguir encontrar alguém que possa me atender, que tenha tempo na agenda, e eu tenho que conseguir pagar por isso. Para algumas pessoas, isso as tira completamente da terapia.”
Pode ser personalizado para cada paciente
A natureza dos chatbots permite que eles forneçam educação e suporte ao paciente de forma conversacional. Ao reunir contexto das interações do usuário, eles ajustam suas mensagens para se alinharem às preferências de comunicação, problemas e objetivos específicos de um indivíduo. Isso pode ajudar os usuários a se sentirem mais confortáveis e engajados com um chatbot, potencialmente levando a discussões mais abertas e melhores resultados terapêuticos.
Por exemplo, um estudo com 1.200 usuários do chatbot terapêutico Wysa descobriu que uma “aliança terapêutica” entre bot e usuário se formou em apenas cinco dias. Os usuários rapidamente passaram a acreditar que o bot gostava deles e os respeitava — que ele se importava — o que levou a sentimentos de “honestidade, segurança e conforto com Wysa”.
Sem julgamento
Um dos maiores obstáculos na terapia eficaz é a relutância do paciente em ser totalmente honesto com seu clínico. Em um estudo com 500 frequentadores de terapia, mais de 90 por cento confessaram ter mentido pelo menos uma vez.
“Pode ser assustador dizer a um ser humano, ‘Eu tenho um problema com bebida’, ou ‘Eu traí meu cônjuge’, ou ‘Estou deprimido’ — coisas que você mal consegue admitir para si mesmo, ou que são estigmatizantes”, disse Franson. “Com a IA, há um pouco menos de medo.”
Com os chatbots, os usuários podem discutir com segurança e anonimato seus momentos mais sombrios e sentimentos mais pessoais, sem medo de julgamento de qualquer humano.
Desafios dos chatbots de terapia de IA
Embora os chatbots tragam muitos benefícios à saúde mental, eles também apresentam vários desafios.
A IA baseada em regras carece de nuances
A maioria dos chatbots de saúde mental disponíveis atualmente depende do que é chamado de “IA baseada em regras”, o que significa que eles só podem oferecer respostas que foram pré-escritas e aprovadas por especialistas humanos.
Isso significa que os bots não são adaptáveis, e eles não podem formular espontaneamente suas próprias perguntas de acompanhamento ou guiar conversas em novas direções da mesma forma que um terapeuta humano pode. Sua programação rígida limita sua capacidade de se envolver dinamicamente com os usuários.
“O chatbot só vai conseguir dar o que ele pode dar”, disse Jackson. “Ele pode conseguir dar algumas habilidades de enfrentamento, algum redirecionamento, ele pode ter uma conversa. Mas ele não está ali com a inteligência emocional e a capacidade de entender sua situação.”
Isso é particularmente problemático em saúde mental, onde os detalhes são cruciais. Por exemplo, se um bot não consegue entender a diferença entre “Eu tive um dia ruim” e “Eu tenho pensamentos de autolesão”, ele pode dar uma resposta inadequada e até perigosa.
Sensibilidade dos dados
Dados confidenciais sobre saúde mental estão no centro das preocupações quando se trata de chatbots terapêuticos. Os bots podem coletar uma quantidade considerável de dados pessoais sobre o usuário, desde informações demográficas até detalhes sobre seu histórico médico e estado emocional.
Se esses dados forem comprometidos, isso pode representar um risco significativo para a privacidade e segurança do usuário. Além disso, há sempre o risco de que os dados possam ser usados de maneiras que os usuários não pretendiam ou não aprovaram. Por exemplo, há preocupações de que os dados dos usuários possam ser vendidos a terceiros ou usados para fins de marketing.
Falta de regulação
Os chatbots de saúde mental operam em um ambiente relativamente não regulamentado, o que significa que não há garantias consistentes sobre a qualidade ou segurança dos serviços que eles oferecem. Isso contrasta fortemente com a terapia tradicional, onde os terapeutas devem aderir a rigorosos padrões éticos e regulatórios.
Além disso, como a IA ainda está em seus estágios iniciais, a regulação é um campo em constante evolução. Isso significa que os desenvolvedores de chatbots precisam estar constantemente atualizados com as leis e regulamentos emergentes, o que pode ser um desafio.
Risco de Dependência
Embora os chatbots possam ser uma ferramenta útil, há o risco de que os usuários possam se tornar excessivamente dependentes deles. Isso pode impedir que os indivíduos busquem ajuda profissional quando necessário ou que desenvolvam suas próprias habilidades de enfrentamento.
Chatbots Populares de Terapia de IA para Conhecer
Woebot
Descrito como um “companheiro digital orientado por IA”, o Woebot oferece suporte por meio de conversas baseadas em bate-papo enraizadas na terapia cognitivo-comportamental (TCC), uma abordagem orientada a objetivos que ajuda os indivíduos a identificar e mudar padrões de pensamento e comportamentos negativos. O chatbot é baseado em regras, então todas as suas respostas foram desenvolvidas por profissionais e são supervisionadas por clínicos. Ele usa processamento de linguagem natural para interpretar as entradas do usuário e decidir qual resposta pré-escrita dar — seja um conselho ou palavras de encorajamento.
Com mais de 1,5 milhão de usuários, o Woebot é um dos chatbots de terapia mais populares do mercado atualmente. A empresa também está em conformidade com a HIPAA e diz que seus dados de usuário são protegidos como informações de saúde protegidas (PHI), o que significa que ela nunca compartilha ou vende os dados de seus usuários.
Youper
Com o Youper, os usuários podem se autoavaliar para condições comuns de saúde mental e, então, se envolver em conversas personalizadas com base em técnicas de TCC e mindfulness. À medida que o chatbot aprende mais sobre o usuário, ele ajusta suas respostas para melhor atender às suas necessidades. O aplicativo também oferece um rastreador de humor, avaliações de personalidade, exercícios de mindfulness e maneiras de monitorar seu progresso de saúde mental ao longo do tempo.
A Youper usa uma combinação de IA baseada em regras e generativa. Suas respostas são geradas por IA, mas seu modelo de linguagem grande (LLM) subjacente foi treinado em dados clínicos específicos e tem proteções rígidas para evitar respostas prejudiciais ou vazamentos de dados, de acordo com a empresa. Um estudo coautorado por pesquisadores da Universidade de Stanford e Youper determinou que o aplicativo é um tratamento eficaz para ansiedade e depressão.
Wysa
O Wysa foi projetado para ajudar usuários com depressão leve, estresse e ansiedade, com foco particular na meditação. O chatbot opera em uma estrutura baseada em regras, oferecendo suporte e aconselhamento clinicamente validados por meio de check-ins diários automatizados e conversas. Há também uma opção para se conectar com um coach ou terapeuta humano, que oferece sessões individuais e mensagens ilimitadas entre as sessões, de acordo com a empresa.
Em um ensaio clínico independente publicado em 2022, pesquisadores descobriram que o Wysa era eficaz para controlar a dor crônica e a depressão e ansiedade associadas, e comparável ao aconselhamento psicológico presencial. Logo depois, a empresa recebeu uma Designação de Dispositivo Revelação do FDA para desenvolver e testar ainda mais seu produto. O Serviço Nacional de Saúde do Reino Unido também está usando o Wysa para ajudar a tratar a depressão e a ansiedade em adolescentes e jovens adultos, incluindo aqueles na lista de espera para consultar um terapeuta.
Earkick
Earkick é uma ferramenta gratuita que as pessoas podem usar para obter conselhos e entender melhor sua saúde emocional. Os usuários podem se comunicar com o chatbot — personificado como um panda usando bandana — por meio de mensagens de texto ou voz, e o chatbot responde em tempo real usando IA generativa.
Além do chatbot, o aplicativo é especialmente focado em rastrear o estado mental e emocional dos usuários, e considera coisas como tom de voz, duração do sono, ciclo menstrual e informações de contexto sobre seu trabalho, família e amigos para fazer avaliações de saúde mental. O Earkick também é completamente anônimo; ele não coleta endereços de e-mail ou dados demográficos como nome, idade, sexo ou localização.
Elomia
A Elomia fornece aos usuários técnicas de mindfulness destinadas a ajudá-los a lidar com ansiedade, depressão, solidão, esgotamento profissional, relacionamentos difíceis e outros estressores comuns. Ela também oferece exercícios guiados, meditações diárias e um recurso de diário para os usuários acompanharem seu progresso.
A Elomia afirma que, após seis meses de uso do chatbot, os participantes relataram uma maior capacidade de lidar com emoções difíceis, melhores habilidades de resolução de problemas, maior motivação e produtividade, melhores habilidades sociais e muito mais. E um estudo revisado por pares de 2021 descobriu que o uso regular do Elomia levou a uma “redução significativa” na depressão e ansiedade.
Perguntas Frequentes
O que é um chatbot de terapia de IA?
Um chatbot de terapia de IA é um programa de software que utiliza inteligência artificial para oferecer suporte emocional e estratégias de enfrentamento por meio de conversas automatizadas. Esses chatbots são projetados para ajudar com problemas de saúde mental como ansiedade, depressão e estresse.
Como os chatbots de terapia funcionam?
Os chatbots de terapia funcionam através da análise das interações do usuário para fornecer respostas e conselhos baseados em técnicas de terapia cognitivo-comportamental (TCC) e mindfulness. Eles fazem isso através de processamento de linguagem natural e algoritmos de IA, ajustando suas respostas conforme o contexto das conversas.
Qual é a diferença entre chatbots de terapia e terapeutas humanos?
Embora os chatbots de terapia possam fornecer suporte e estratégias de enfrentamento, eles não têm a inteligência emocional e a compreensão profunda de um terapeuta humano. Eles não são capazes de realizar diagnósticos ou prescrever medicamentos e são limitados por sua programação e dados disponíveis.
Os chatbots de terapia são eficazes?
A eficácia dos chatbots de terapia pode variar. Pesquisas iniciais indicam que eles podem ser úteis para reduzir sintomas de ansiedade e depressão e complementar a terapia convencional, mas ainda há necessidade de mais estudos para avaliar sua eficácia a longo prazo.
Os dados fornecidos a um chatbot de terapia são seguros?
A segurança dos dados pode variar entre diferentes chatbots de terapia. Alguns seguem normas de privacidade rigorosas como HIPAA, enquanto outros podem não ter a mesma proteção. É importante verificar as políticas de privacidade do serviço e garantir que os dados são protegidos adequadamente.
Os chatbots de terapia podem substituir terapeutas humanos?
Não, os chatbots de terapia não devem substituir terapeutas humanos. Eles são mais eficazes como uma ferramenta complementar, oferecendo suporte contínuo entre as sessões de terapia ou para quem não tem acesso imediato a um profissional.
Quais são alguns exemplos populares de chatbots de terapia?
Alguns exemplos de chatbots de terapia populares incluem Woebot, Youper, Wysa, Earkick e Elomia. Cada um desses chatbots oferece diferentes tipos de suporte e técnicas baseadas em IA para ajudar com questões de saúde mental.
Onde posso encontrar chatbots de terapia de IA?
Os chatbots de terapia de IA estão disponíveis em várias plataformas e podem ser encontrados em lojas de aplicativos como Google Play e Apple App Store, bem como em sites dedicados aos serviços de saúde mental.
Conclusão
Os chatbots de terapia de IA têm emergido como uma inovação significativa na saúde mental, oferecendo uma alternativa acessível e conveniente para o apoio emocional. Embora esses assistentes virtuais não substituam os terapeutas humanos, eles têm mostrado potencial em complementar o tratamento convencional ao fornecer suporte contínuo, estratégias de enfrentamento e ferramentas de autoajuda.
Com o avanço das tecnologias de IA, como as encontradas no Woebot, Youper, Wysa, Earkick e Elomia, há uma crescente aceitação desses recursos no campo da saúde mental. Contudo, é essencial que os usuários permaneçam conscientes das limitações e desafios, como questões de privacidade, ética e a necessidade de intervenção humana em casos mais graves. À medida que a pesquisa continua a evoluir, os chatbots de terapia podem desempenhar um papel cada vez mais integrado no suporte à saúde mental, promovendo uma abordagem mais inclusiva e acessível ao cuidado emocional.