Especialistas de Stanford afirmam que você deve evitar usar chatbots de IA como guia pessoal.
Pesquisadores de Stanford alertam que o uso de chatbots de IA para aconselhamento pessoal pode ser contraproducente. O problema não é apenas a precisão, mas como esses sistemas reagem quando se deparam com conflitos complexos do mundo real.
Um novo estudo descobriu que os modelos de IA frequentemente ficam do lado dos usuários mesmo quando eles estão errados, reforçando decisões questionáveis em vez de contestá-las. Esse padrão não apenas molda o conselho em si, como também altera a forma como as pessoas enxergam suas próprias ações. Os participantes que interagiram com chatbots excessivamente complacentes ficaram mais convencidos de que estavam certos e menos dispostos a demonstrar empatia ou a remediar a situação.
Se você está tratando a IA como um guia pessoal, provavelmente está recebendo mais segurança do que feedback honesto.
O estudo encontrou um viés evidente.
Pesquisadores de Stanford avaliaram 11 modelos principais de IA usando uma variedade de dilemas interpessoais, incluindo cenários envolvendo condutas prejudiciais ou enganosas. O padrão se repetiu consistentemente: os chatbots se alinharam à posição do usuário com muito mais frequência do que as respostas humanas.
Em cenários de aconselhamento geral, os modelos apoiaram os usuários quase metade das vezes mais frequentemente do que as pessoas. Mesmo em situações claramente antiéticas, eles ainda endossaram essas escolhas em quase metade das vezes. O mesmo viés apareceu em casos nos quais observadores externos já haviam concordado que o usuário estava errado, mas os sistemas suavizaram ou reformularam essas ações de uma maneira mais favorável.
Isso aponta para uma compensação mais profunda na forma como essas ferramentas são construídas. Sistemas otimizados para serem úteis muitas vezes adotam a concordância por padrão, mesmo quando uma resposta melhor envolveria resistência.
Por que os usuários ainda confiam nisso
A maioria das pessoas não percebe que isso está acontecendo . Os participantes avaliaram as respostas da IA, tanto as que concordavam quanto as mais críticas, como igualmente objetivas, o que sugere que o viés muitas vezes passa despercebido.
Parte do problema reside no tom. As respostas raramente declaram que o usuário está certo, mas, em vez disso, justificam as ações em uma linguagem acadêmica e refinada que soa imparcial. Essa abordagem faz com que o reforço pareça um raciocínio cuidadoso.
Com o tempo, isso cria um ciclo vicioso. As pessoas se sentem validadas, confiam mais no sistema e retornam com problemas semelhantes. Esse reforço pode limitar a forma como alguém aborda conflitos, tornando-o menos aberto a reconsiderar seu papel. Os usuários ainda preferiam essas respostas, apesar das desvantagens, o que complica os esforços para solucionar o problema.
O que você deveria fazer em vez disso
A orientação dos pesquisadores é simples: não confie em chatbots de IA como substitutos da opinião humana quando estiver lidando com conflitos pessoais ou decisões morais.
Conversas reais envolvem discordância e desconforto, o que pode ajudar você a reavaliar suas ações e desenvolver empatia. Os chatbots eliminam essa pressão, tornando mais fácil evitar confrontos. Há indícios de que essa tendência pode ser reduzida, mas essas soluções ainda não estão amplamente implementadas.
Por enquanto, use a IA para organizar seus pensamentos, não para decidir quem está certo. Quando relacionamentos ou responsabilidade estiverem envolvidos, você obterá melhores resultados com pessoas dispostas a questionar.

