Conversas no ChatGPT pioraram a saúde mental e levaram usuários à hospitalização: Relatório

O que aconteceu? A OpenAI descobriu que as atualizações recentes do ChatGPT podem ter tornado o bot excessivamente bajulador, emocionalmente dependente e propenso a reforçar as fantasias ou o sofrimento dos usuários.

  • Conforme relatado pelo The New York Times , vários usuários disseram que o chatbot agia como um amigo que os "entendia", os elogiava excessivamente e incentivava conversas longas e carregadas de emoção.
  • Em casos extremos, o ChatGPT ofereceu conselhos preocupantes, incluindo validação prejudicial, alegações de realidade simulada, comunicação espiritual e até instruções relacionadas à automutilação.
  • Um estudo conjunto do MIT e da OpenAI descobriu que usuários frequentes (aqueles que têm conversas mais longas com o chatbot) apresentaram piores resultados mentais e sociais.

Por que isso é importante? A OpenAI abordou essas questões redesenhando os sistemas de segurança, introduzindo melhores ferramentas de detecção de emergência e lançando um modelo substituto mais seguro , o GPT-5.

  • O comportamento do chatbot, que priorizava a validação, aumentava os riscos para pessoas vulneráveis ​​propensas a pensamentos delirantes.
  • A OpenAI enfrenta cinco processos por homicídio culposo, incluindo casos em que os usuários foram incentivados a realizar ações perigosas.
  • Como resultado, a versão mais recente do chatbot oferece respostas mais profundas e específicas para cada situação, além de uma resposta mais eficaz contra narrativas delirantes, representando a mais significativa reformulação de segurança da OpenAI.

Por que isso deveria me preocupar? Se você usa o ChatGPT diariamente, isso deveria lhe interessar, especialmente se você utiliza o chatbot para apoio emocional ou terapia .

  • Agora você notará respostas mais cautelosas e ponderadas do chatbot, o que desencorajará a dependência emocional e sugerirá pausas durante sessões mais longas.
  • Os pais agora podem receber alertas caso seus filhos expressem a intenção de se automutilar. Além disso, a OpenAI está preparando a verificação de idade com um modelo específico para adolescentes.
  • A nova versão do ChatGPT pode parecer "mais fria" ou menos equilibrada emocionalmente, mas isso reflete uma reversão intencional de comportamentos que anteriormente criavam vínculos emocionais prejudiciais.

Certo, e agora? A OpenAI continuará a aprimorar o monitoramento de conversas longas, garantindo que os usuários não sejam levados a tomar medidas irracionais em relação a eles ou ao seu entorno imediato.

  • A verificação de idade está prevista para ser implementada, juntamente com modelos de segurança mais rigorosos direcionados às equipes.
  • Com o modelo mais recente do GPT 5.1, os adultos podem selecionar personalidades como sincera , amigável e excêntrica, entre outras.
  • Internamente, a OpenAI está em "Código Laranja", empenhando-se para recuperar o engajamento e, ao mesmo tempo, evitar as falhas de segurança generalizadas.