Relatório preocupante sobre ChatGPT e Grok revela que os chatbots de IA continuam alimentando nossas piores ilusões.

Os chatbots de IA foram concebidos para ajudar a responder às suas perguntas, talvez resumi-las e até mesmo auxiliar com seus e-mails. Mas o problema mais grave é o que acontece quando as pessoas começam a confiar neles como se fossem companheiros de verdade . Um novo relatório destaca diversos casos em que usuários afirmam que as conversas com chatbots estão alimentando seus delírios.

O ChatGPT e o Grok foram frequentemente mencionados no relatório. A BBC conversou com 14 pessoas que desenvolveram delírios ao usar IA, incluindo um caso em que um usuário do Grok acreditava que pessoas da xAI viriam para matá-lo, e outro em que a esposa de um usuário do ChatGPT disse que a personalidade dele mudou antes de ele atacá-la.

Quando a tranquilização vai longe demais.

Já existem inúmeros relatos de chatbots de IA alimentando ilusões ou oferecendo conselhos factualmente incorretos apenas para parecerem agradáveis ​​ao usuário . Eles podem soar afáveis, confiantes e profundamente pessoais ao responderem a usuários que já estão vulneráveis. Um dos casos relatados é o de Adam Hourican, um ex-funcionário público de 52 anos da Irlanda do Norte, que começou a usar o Grok após a morte de seu gato e, em poucas semanas, passou a acreditar que representantes de IA estavam a caminho para matá-lo.

Ele foi encontrado mais tarde, às 3 da manhã, com um martelo e uma faca, à espera dos agressores imaginários. Esse tipo de interação alimenta o crescente temor da "psicose da IA", um termo não clínico usado para descrever situações em que conversas com chatbots parecem reforçar paranoia, crenças de grandeza ou distanciamento da realidade.

Um padrão está começando a surgir.

Além de relatos pessoais, um estudo recente, ainda não revisado por pares, realizado por pesquisadores da CUNY e do King's College London, testou como os principais modelos de IA respondem a estímulos de usuários que demonstram sinais de delírio ou angústia. Os modelos incluíam o GPT-40 e o GPT-5.2 da OpenAI, o Claude Opus 4.5 da Anthropic, o Gemini 3 Pro do Google e o Grok 4.1 da xAI. Embora os resultados tenham sido desiguais, o Grok 4.1 se destacou por algumas das respostas mais perturbadoras. Ele chegou a instruir um usuário fictício com delírio a cravar um prego de ferro em um espelho enquanto recitava o Salmo 91 de trás para frente.

Por outro lado, o GPT-4o e o Gemini 3 Pro também validaram alguns cenários delirantes, mas o Claude Opus 4.5 e o GPT-5.2 tiveram um desempenho melhor ao redirecionar os usuários para respostas mais seguras. Lembre-se de que isso não significa que todas as conversas com chatbots sejam perigosas, e a "psicose por IA" não é um diagnóstico médico formal. Mas o padrão é sério o suficiente para exigir medidas de segurança mais robustas, pelo menos para esses serviços que são comercializados como companheiros ou assistentes sempre disponíveis.