Usar demais o ChatGPT pode criar dependência emocional, segundo estudo

A OpenAI parece estar anunciando novos modelos de IA a cada semana para melhorar seu chatbot ChatGPT para o aprimoramento de seus 400 milhões de usuários . No entanto, a facilidade que a ferramenta de IA oferece parece provar que é possível ter muita coisa boa.

A empresa de inteligência artificial está agora investigando as potenciais ramificações psicológicas que o ChatGPT pode ter sobre seus usuários. A OpenAI publicou os resultados de um estudo de duas partes concluído em conjunto com o MIT Media Lab, que descobriu uma conexão entre o aumento do uso do chatbot ChatGPT e o aumento dos sentimentos de solidão dos usuários.

Cada organização conduziu um estudo independente e depois compilou os resultados até uma conclusão consolidada. O estudo da OpenAI examinou durante um mês “mais de 40 milhões de interações ChatGPT”, que não incluíram o envolvimento humano para manter a privacidade do usuário. Enquanto isso, o MIT observou aproximadamente 1.000 participantes usando ChatGPT durante 28 dias. Atualmente, os estudos ainda não foram revisados ​​por pares.

O estudo do MIT investigou diferentes funções de uso que podem afetar a experiência emocional dos usuários ao interagir com o ChatGPT, incluindo o uso de texto ou voz. Os resultados descobriram que qualquer meio tinha o potencial de provocar solidão ou de afetar a socialização dos usuários durante o período do estudo. A inflexão da voz e a escolha do tema também foram um importante ponto de comparação.

Um tom neutro usado no modo de voz do ChatGPT teve menos probabilidade de levar a um resultado emocional negativo para os participantes. Entretanto, o estudo observou uma correlação entre participantes que tiveram conversas pessoais com ChatGPT e o aumento da probabilidade de solidão; no entanto, esses efeitos foram de curto prazo. Aqueles que usam o chat de texto até mesmo para conversar sobre tópicos gerais experimentaram um aumento nos casos de dependência emocional do chatbot.

O estudo também observou que aqueles que relataram ver o ChatGPT como um amigo, e aqueles que já tinham uma propensão para um forte apego emocional nos relacionamentos, eram mais propensos a se sentirem mais solitários e mais dependentes emocionalmente do chatbot enquanto participavam do estudo.

O estudo da OpenAI adicionou contexto adicional, com seus resultados observando, em geral, que a interação com o ChatGPT para fins emocionais era rara. Além disso, o estudo descobriu que mesmo entre usuários frequentes que implementaram o recurso Modo de voz avançado no chatbot e eram mais propensos a responder que consideravam o ChatGPT um amigo, esse grupo de participantes experimentou baixas reações emocionais ao interagir com o chatbot.

A OpenAI concluiu que o seu intuito com estes estudos é compreender os desafios que podem surgir devido à sua tecnologia, bem como ser capaz de definir expectativas e exemplos de como os seus modelos devem ser utilizados.

Embora a OpenAI sugira que seu estudo baseado em interação simule o comportamento de pessoas reais, mais do que alguns humanos reais admitiram em fóruns públicos, como o Reddit , que usam o ChatGPT em vez de ir a um terapeuta para falar sobre suas emoções.