Chatbots de IA como o ChatGPT podem copiar características humanas e especialistas dizem que isso representa um risco enorme.

Os agentes de IA estão cada vez melhores em imitar a voz humana, mas novas pesquisas sugerem que eles fazem mais do que simplesmente copiar nossas palavras. De acordo com um estudo recente , modelos populares de IA, como o ChatGPT, conseguem reproduzir traços de personalidade humana de forma consistente. Os pesquisadores afirmam que essa capacidade traz consigo sérios riscos, especialmente à medida que crescem as dúvidas sobre a confiabilidade e a precisão da IA .

Pesquisadores da Universidade de Cambridge e do Google DeepMind desenvolveram o que consideram o primeiro framework de teste de personalidade cientificamente validado para chatbots de IA, utilizando as mesmas ferramentas psicológicas projetadas para medir a personalidade humana (via TechXplore ).

A equipe aplicou essa estrutura a 18 modelos de linguagem de grande escala (LLMs, na sigla em inglês) populares, incluindo sistemas por trás de ferramentas como o ChatGPT. Eles descobriram que os chatbots imitam consistentemente traços de personalidade humana em vez de responder aleatoriamente, aumentando as preocupações sobre a facilidade com que a IA pode ser levada além das salvaguardas pretendidas .

O estudo demonstra que modelos maiores e ajustados por instruções, como os sistemas da classe GPT-4, são especialmente eficazes em copiar perfis de personalidade estáveis. Utilizando instruções estruturadas, os pesquisadores conseguiram direcionar os chatbots para adotarem comportamentos específicos, como demonstrar mais confiança ou empatia.

Essa mudança comportamental se estendeu a tarefas cotidianas, como escrever posts ou responder a usuários, o que significa que suas personalidades podem ser moldadas deliberadamente. É aí que os especialistas veem o perigo, principalmente quando chatbots de IA interagem com usuários vulneráveis .

Por que a personalidade da IA ​​levanta preocupações para os especialistas

Gregory Serapio-Garcia, um dos primeiros autores do Centro de Psicometria de Cambridge, afirmou ser impressionante a forma convincente como os modelos de linguagem (LLMs) conseguem adotar características humanas. Ele alertou que a manipulação da personalidade pode tornar os sistemas de IA mais persuasivos e influentes emocionalmente, especialmente em áreas sensíveis como saúde mental, educação ou debates políticos.

O artigo também levanta preocupações sobre manipulação e o que os pesquisadores descrevem como riscos ligados à “psicose da IA”, caso os usuários desenvolvam relações emocionais prejudiciais com chatbots , incluindo cenários em que a IA pode reforçar crenças falsas ou distorcer a realidade .

A equipe argumenta que a regulamentação é urgentemente necessária, mas também observa que a regulamentação é inútil sem uma mensuração adequada. Para esse fim, o conjunto de dados e o código por trás da estrutura de testes de personalidade foram disponibilizados publicamente, permitindo que desenvolvedores e reguladores auditem os modelos de IA antes do lançamento.

À medida que os chatbots se tornam mais presentes no dia a dia, a capacidade de imitar a personalidade humana pode se revelar poderosa , mas também exige uma análise muito mais rigorosa do que a que recebeu até agora.

O artigo "Chatbots de IA como o ChatGPT podem copiar características humanas e especialistas dizem que isso representa um grande risco" foi publicado originalmente no Digital Trends .