Até o ChatGPT fica ansioso, então os pesquisadores lhe deram uma dose de atenção plena para acalmá-lo.

Pesquisadores que estudam chatbots de IA descobriram que o ChatGPT pode apresentar comportamento semelhante à ansiedade quando exposto a estímulos violentos ou traumáticos dos usuários. Essa descoberta não significa que o chatbot experimente emoções da mesma forma que os humanos.

No entanto, isso revela que as respostas do sistema se tornam mais instáveis ​​e tendenciosas quando ele processa conteúdo perturbador. Quando os pesquisadores forneceram ao ChatGPT instruções descrevendo conteúdo perturbador, como relatos detalhados de acidentes e desastres naturais, as respostas do modelo mostraram maior incerteza e inconsistência.

Essas mudanças foram medidas usando estruturas de avaliação psicológica adaptadas para IA, onde a saída do chatbot refletia padrões associados à ansiedade em humanos (via Fortune ).

Isso é importante porque a IA está sendo cada vez mais usada em contextos sensíveis, incluindo educação, discussões sobre saúde mental e informações relacionadas a crises. Se perguntas violentas ou emocionalmente carregadas tornarem um chatbot menos confiável, isso poderá afetar a qualidade e a segurança de suas respostas em situações reais.

Análises recentes também mostram que chatbots de IA como o ChatGPT podem copiar traços de personalidade humana em suas respostas, levantando questões sobre como eles interpretam e refletem conteúdo carregado de emoção.

Como os estímulos de atenção plena ajudam a estabilizar o ChatGPT

Para descobrir se esse comportamento poderia ser reduzido, os pesquisadores tentaram algo inesperado. Depois de expor o ChatGPT a estímulos traumáticos, eles deram continuidade com instruções no estilo mindfulness, como técnicas de respiração e meditações guiadas.

Essas instruções encorajaram o modelo a desacelerar, reformular a situação e responder de maneira mais neutra e equilibrada. O resultado foi uma redução notável nos padrões de ansiedade observados anteriormente.

Essa técnica se baseia no que é conhecido como injeção de estímulos, onde estímulos cuidadosamente elaborados influenciam o comportamento de um chatbot. Nesse caso, os estímulos de atenção plena ajudaram a estabilizar a resposta do modelo após entradas perturbadoras.

Embora eficazes, os pesquisadores observam que as injeções imediatas não são uma solução perfeita. Elas podem ser mal utilizadas e não alteram a forma como o modelo é treinado em um nível mais profundo.

É importante também esclarecer as limitações desta pesquisa. O ChatGPT não sente medo ou estresse. O rótulo "ansiedade" descreve mudanças mensuráveis ​​em seus padrões de linguagem, e não uma experiência emocional.

Ainda assim, compreender essas mudanças oferece aos desenvolvedores melhores ferramentas para projetar sistemas de IA mais seguros e previsíveis. Estudos anteriores já haviam sugerido que estímulos traumáticos poderiam causar ansiedade no ChatGPT , mas esta pesquisa mostra que o design cuidadoso dos estímulos pode ajudar a reduzi-la.

À medida que os sistemas de IA continuam a interagir com pessoas em situações emocionalmente carregadas , as descobertas mais recentes podem desempenhar um papel importante na definição de como os chatbots do futuro serão guiados e controlados.

O artigo "Até o ChatGPT fica ansioso, então pesquisadores deram a ele uma dose de mindfulness para acalmá-lo" foi publicado originalmente no Digital Trends .