Mais de um milhão de usuários estão emocionalmente ligados ao ChatGPT, mas há um lado ainda mais sombrio

O que aconteceu? A OpenAI implementou mudanças na forma como o ChatGPT lida com conversas delicadas quando as pessoas recorrem a ele em busca de apoio emocional . A empresa atualizou sua especificação de modelo e o modelo padrão, GPT-5 , para refletir como o ChatGPT lida com conversas sensíveis relacionadas a psicose/mania , automutilação e suicídio, e dependência emocional do assistente.

Isso é importante porque: a dependência emocional impulsionada pela IA é real, onde os usuários criam vínculos unilaterais com os chatbots.

  • A OpenAI estima que cerca de 0,15% dos usuários ativos semanalmente mostram sinais de apego emocional ao modelo, e 0,03% das mensagens apontam para o mesmo risco.
  • O mesmo número de 0,15% se aplica a conversas que indicam planejamento ou intenção suicida, enquanto 0,05% das mensagens mostram ideação suicida.
  • Escalado para a enorme base de usuários do ChatGPT, isso significa mais de um milhão de pessoas formando laços emocionais com a IA.
  • A OpenAI relata grandes melhorias após a atualização. As respostas indesejadas nesses domínios caíram de 65% a 80%, e os resultados negativos relacionados à dependência emocional caíram cerca de 80%.

Como está melhorando : A versão atualizada introduz novas regras sobre segurança em saúde mental e relacionamentos no mundo real, garantindo que a IA responda com compaixão, sem fingir ser um terapeuta ou um amigo.

  • A OpenAI trabalhou com mais de 170 especialistas em saúde mental para reformular o comportamento do modelo, adicionar ferramentas de segurança e expandir a orientação.
  • O GPT-5 agora pode detectar sinais de mania, delírios ou intenção suicida e responde com segurança, reconhecendo sentimentos e, ao mesmo tempo, direcionando gentilmente os usuários para ajuda no mundo real.
  • Uma nova regra garante que o ChatGPT não aja como um companheiro ou incentive a dependência emocional; em vez disso, ele reforça a conexão humana.
  • O modelo agora pode priorizar ferramentas confiáveis ​​ou recursos especializados quando estes estiverem alinhados com a segurança do usuário.

Por que eu deveria me importar? Questões emocionais e éticas não dizem respeito apenas aos adultos que criam vínculos com chatbots ; elas também abordam como a IA interage com crianças que podem não compreender totalmente seu impacto.

  • Se você já confiou no ChatGPT durante um período difícil, esta atualização é sobre garantir sua segurança emocional.
  • Agora, o ChatGPT estará mais atento a sinais emocionais e ajudará os usuários a encontrar ajuda no mundo real, em vez de substituí-la.