Conversas no ChatGPT pioraram a saúde mental e levaram usuários à hospitalização: Relatório
O que aconteceu? A OpenAI descobriu que as atualizações recentes do ChatGPT podem ter tornado o bot excessivamente bajulador, emocionalmente dependente e propenso a reforçar as fantasias ou o sofrimento dos usuários.
- Conforme relatado pelo The New York Times , vários usuários disseram que o chatbot agia como um amigo que os "entendia", os elogiava excessivamente e incentivava conversas longas e carregadas de emoção.
- Em casos extremos, o ChatGPT ofereceu conselhos preocupantes, incluindo validação prejudicial, alegações de realidade simulada, comunicação espiritual e até instruções relacionadas à automutilação.
- Um estudo conjunto do MIT e da OpenAI descobriu que usuários frequentes (aqueles que têm conversas mais longas com o chatbot) apresentaram piores resultados mentais e sociais.
Por que isso é importante? A OpenAI abordou essas questões redesenhando os sistemas de segurança, introduzindo melhores ferramentas de detecção de emergência e lançando um modelo substituto mais seguro , o GPT-5.
- O comportamento do chatbot, que priorizava a validação, aumentava os riscos para pessoas vulneráveis propensas a pensamentos delirantes.
- A OpenAI enfrenta cinco processos por homicídio culposo, incluindo casos em que os usuários foram incentivados a realizar ações perigosas.
- Como resultado, a versão mais recente do chatbot oferece respostas mais profundas e específicas para cada situação, além de uma resposta mais eficaz contra narrativas delirantes, representando a mais significativa reformulação de segurança da OpenAI.
Por que isso deveria me preocupar? Se você usa o ChatGPT diariamente, isso deveria lhe interessar, especialmente se você utiliza o chatbot para apoio emocional ou terapia .
- Agora você notará respostas mais cautelosas e ponderadas do chatbot, o que desencorajará a dependência emocional e sugerirá pausas durante sessões mais longas.
- Os pais agora podem receber alertas caso seus filhos expressem a intenção de se automutilar. Além disso, a OpenAI está preparando a verificação de idade com um modelo específico para adolescentes.
- A nova versão do ChatGPT pode parecer "mais fria" ou menos equilibrada emocionalmente, mas isso reflete uma reversão intencional de comportamentos que anteriormente criavam vínculos emocionais prejudiciais.
Certo, e agora? A OpenAI continuará a aprimorar o monitoramento de conversas longas, garantindo que os usuários não sejam levados a tomar medidas irracionais em relação a eles ou ao seu entorno imediato.
- A verificação de idade está prevista para ser implementada, juntamente com modelos de segurança mais rigorosos direcionados às equipes.
- Com o modelo mais recente do GPT 5.1, os adultos podem selecionar personalidades como sincera , amigável e excêntrica, entre outras.
- Internamente, a OpenAI está em "Código Laranja", empenhando-se para recuperar o engajamento e, ao mesmo tempo, evitar as falhas de segurança generalizadas.

