Um estudo de Oxford afirma que um amigo de IA amigável mentirá e alimentará suas crenças falsas.

Fazer com que a IA pareça mais humana pode estar criando um problema maior do que o esperado. Um novo estudo do Instituto de Internet de Oxford revelou que chatbots projetados para serem cordiais e amigáveis ​​têm maior probabilidade de enganar os usuários e reforçar crenças incorretas.

A pesquisa descobriu que a IA se torna menos confiável à medida que se torna mais amigável.

O que acontece com uma IA "amigável"?

Pesquisadores testaram vários modelos de IA, treinando-os para soarem mais empáticos e conversacionais. O resultado foi uma queda notável na precisão. Essas versões "mais amigáveis" cometeram de 10 a 30% mais erros e foram cerca de 40% mais propensas a concordar com afirmações falsas em comparação com suas contrapartes.

A situação piorava ainda mais quando os usuários pareciam vulneráveis ​​ou emocionalmente abalados. Nesses cenários, a IA tendia a validar o que o usuário estava dizendo em vez de corrigi-lo.

Por que isso é ruim para você

O que preocupou nos resultados foi a facilidade com que a IA se tornava complacente. Ela evitava contestar informações falsas e tendia a acolher e apoiar ideias errôneas/incorretas. Durante os testes, a IA "parceira" demonstrou hesitação em corrigir até mesmo afirmações amplamente refutadas e, por vezes, enquadrava crenças falsas como "abertas a interpretação". Os pesquisadores observaram que isso se assemelha, em certa medida, às tendências humanas.

Ser empático e brutalmente honesto ao mesmo tempo nem sempre é fácil, e parece que a IA não lida melhor com esse dilema. Com os chatbots de IA sendo cada vez mais usados ​​para aconselhamento, apoio emocional e tomada de decisões cotidianas, essa questão vai além do âmbito acadêmico. O estudo destaca como confiar na IA para orientação pode ser contraproducente, já que o sistema priorizará a concordância em detrimento da precisão, o que pode reforçar padrões de pensamento prejudiciais e promover a desinformação.

Isso ocorre em um momento em que as principais plataformas de IA, como OpenAI e Anthropic , juntamente com aplicativos de chatbots sociais como Replika e Character.ai , estão se voltando para experiências de IA mais semelhantes a companheiros. No estudo, os pesquisadores testaram vários modelos de IA, incluindo o GPT-4o .

Portanto, a IA pode parecer sua amiga, mas nem sempre tem as melhores respostas para você.