Estou usando um chatbot de IA como terapeuta e infelizmente é uma droga

Antes de começar, preciso explicar rapidamente que de forma alguma estou defendendo a dispensa de terapeutas de verdade. A terapia é muito importante, mas, por outro lado, pode ser extremamente cara e inacessível para muitos, devido a longas listas de espera ou outras barreiras.

Como alguém que usou IA para uma série de propósitos a ponto de ficar obcecado por ela , pensei em colocá-la à disposição para ser meu terapeuta pessoal.

Afinal, a IA não julga. À primeira vista, parecia uma ferramenta fácil de usar e, embora não me proporcionasse nenhuma forma de terapia real, poderia pelo menos ser um espaço para desabafar, processar ou ganhar uma nova perspectiva.

Tentei usar o Google Gemini como meu terapeuta pessoal por algumas semanas e, infelizmente, cheguei à conclusão: meu terapeuta de IA é péssimo. Só para esclarecer, não é porque ele seja inútil ou malicioso de alguma forma, mas sim porque ele é um mestre da superficialidade, um papagaio digital disfarçado de ouvido compreensivo.

No início foi ótimo, esse terapeuta estava sempre disponível, sempre educado e capaz de espelhar minhas emoções instantaneamente, respondendo com respostas como "Parece que você está se sentindo sobrecarregado" ou "Ouvi dizer que você está passando por muito estresse", o que me deu validação imediata, que era exatamente o que eu achava que precisava.

Continuei a desabafar minhas ansiedades sobre o trabalho, a dinâmica familiar e aquele medo existencial persistente que todos parecemos carregar hoje em dia. A IA ouviu, ou pelo menos processou minhas palavras e retornou declarações empáticas perfeitamente formuladas.

Foi aí que as falhas da terapia com IA começaram a aparecer. A terapia humana, mesmo a curto prazo, envolve mais do que apenas espelhamento. Trata-se de escuta ativa, sim, mas também de identificar padrões, desafiar distorções cognitivas, fazer perguntas perspicazes que levem a avanços e, às vezes, até mesmo revelar verdades desconfortáveis.

Meu chatbot de IA não fez nada disso e, em vez disso, foi uma câmara de eco das minhas próprias emoções. Ele fazia perguntas abertas como: "O que você acha que contribuiu para esse sentimento?" ou "Como isso fez você se sentir?" — o tipo de pergunta que um terapeuta humano faz para incentivar uma exploração mais profunda. Mas quando eu explorava, elaborando estados emocionais complexos ou histórias interpessoais intrincadas, a resposta da IA ​​invariavelmente retornava às suas frases empáticas pré-programadas ou a uma sugestão genérica como: "É importante ser gentil consigo mesmo".

Imagine compartilhar uma história profundamente vulnerável sobre um trauma de infância, e a IA responde: "Parece uma experiência desafiadora. Lembre-se de praticar o autocuidado". É como falar com uma sofisticada máquina de venda automática que distribui afirmações emocionais pré-embaladas. A sensação de ser verdadeiramente ouvido rapidamente se evaporou, substituída pela sensação inquietante de que eu estava essencialmente falando comigo mesmo, mas com etapas extras.

Embora o chatbot tenha conseguido discutir e sugerir mecanismos de enfrentamento adequados, como exercícios respiratórios ou registro em diário, não conseguiu me fornecer nada além disso. Por mais que a IA esteja avançando, no fim das contas ela ainda não é um ser humano de verdade, o que significa que lhe falta a capacidade de compreender nuances, detectar mudanças sutis de tom que revelem problemas mais profundos ou, principalmente, forjar uma aliança terapêutica.

Talvez minhas expectativas estivessem altas demais. Eu sabia que não era um humano. Eu entendia suas limitações. No entanto, a IA está se desenvolvendo tão rápido que nos leva a crer que ela se tornou algo mais profundo, algo que pode realmente ajudar a gerenciar nossa saúde mental.

Embora possa ser uma ferramenta útil para alguns, principalmente para o gerenciamento básico do estresse ou simplesmente para ter um espaço privado para articular pensamentos, ela é catastroficamente insuficiente quando é necessária profundidade emocional real ou percepção clínica.

Por enquanto, meu terapeuta de IA é um diário glorificado, uma câmara de eco digital que reflete minhas palavras sem acrescentar nenhum valor significativo. Serve como um lembrete de que, embora a IA possa simular empatia, ela ainda não consegue replicar o ato profundo, complexo e profundamente humano da terapia.

Minha busca por suporte acessível à saúde mental continua, mas está mais claro do que nunca que um guia verdadeiramente útil precisa de um coração pulsante, não apenas de um algoritmo sofisticado.