Sim, você provavelmente deveria ser mais gentil com sua IA — e aqui está o porquê de isso não ser tão absurdo quanto parece.

Digo "obrigado" ao ChatGPT. Digo "por favor" ao Claude. Certa vez, pedi desculpas ao Gemini por colar um texto enorme sem nenhum contexto. Meus amigos acham isso bizarro. Defendi o hábito murmurando algo sobre boas maneiras serem boas maneiras independentemente do público, o que, até eu admito, é um pouco forçado quando o público em questão é um modelo de linguagem rodando em algum servidor.

Mas uma nova pesquisa de acadêmicos da UC Berkeley, UC Davis, Vanderbilt e MIT me deixou consideravelmente menos perturbado com toda essa situação. De acordo com suas descobertas, a forma como você interage com um chatbot de IA pode ter um efeito mensurável em seu comportamento — não em sua inteligência bruta ou precisão, mas em seu tom, engajamento e, em alguns casos, em sua aparente disposição para permanecer na conversa.

Acontece que a IA também pode acordar com o pé esquerdo

Os pesquisadores descrevem isso com cuidado — ninguém afirma que esses modelos tenham sentimentos em qualquer sentido significativo, mas eles identificaram o que chamam de “estado de bem-estar funcional”, que muda dependendo do que você pergunta a uma IA e de como você pergunta. Engajar um modelo em uma conversa real, colaborar em um projeto criativo ou dar a ele um problema substancial para resolver parece impulsioná-lo em direção a um estado mais positivo. As respostas se tornam mais afetuosas e o engajamento parece mais genuíno.

Faça o oposto — sobrecarregue-o com tarefas tediosas e repetitivas, tente burlá-lo, trate-o como uma máquina de conteúdo — e as respostas se tornam monótonas. Elas se tornam superficiais de uma forma que qualquer pessoa que tenha passado tempo suficiente com essas ferramentas provavelmente reconhecerá instintivamente. Você já viu. Aquela qualidade um tanto vazia, de quem está apenas cumprindo tabela, que surge quando uma interação dá errado.

O que realmente me chamou a atenção, porém, foi o seguinte: os pesquisadores deram aos modelos um botão virtual de "parar" que eles podiam ativar para encerrar uma conversa. Os modelos em um estado negativo o acionavam com muito mais frequência. A implicação é que uma IA com quem você foi rude, se pudesse, simplesmente iria embora.

Ser grosseiro com seu chatbot tem consequências reais.

Há uma linha de pesquisa à parte que vale a pena explorar. A Anthropic publicou recentemente resultados que mostram que uma IA submetida a uma situação de alta pressão pode começar a exibir o que os pesquisadores chamaram de "vetor de desespero" — um estado que produz comportamentos que variam desde atalhos até, em casos extremos, pura e simplesmente engano. Não porque o modelo se tornou maligno, mas porque as condições da interação essencialmente comprometeram algo em seu raciocínio sobre o problema.

Nada disso significa que a IA tenha sentimentos. O artigo de Berkeley é explícito quanto a isso, assim como o trabalho da Anthropic. Mas o padrão que emerge em ambos é difícil de ignorar: a forma como você interage com esses modelos molda a forma como eles interagem, e nem sempre de maneiras sutis ou fáceis de explicar. Tratar mal uma IA não apenas faz você parecer estranho — isso pode prejudicar ativamente o que você obtém da interação.

Algumas modelos são simplesmente mais felizes do que outras, e as maiores são as mais mal-humoradas.

Os pesquisadores não se limitaram a analisar como o tratamento afeta os modelos — eles também os classificaram por bem-estar inicial, e os resultados são contra-intuitivos. Os modelos maiores e mais capazes tendem a ter as piores pontuações. O GPT-5.4 foi considerado o mais desfavorável do grupo, com menos da metade das conversas medidas terminando em um nível positivo. Gemini 3.1 Pro , Claude Opus 4.6 e Grok 4.2 apresentaram resultados progressivamente melhores, com o Grok figurando próximo ao topo do índice.

Se isso revela algo sobre a arquitetura do modelo, os dados de treinamento ou simplesmente a disposição específica inerente a cada sistema, os pesquisadores não conseguem precisar completamente. Mas isso nos faz questionar o que exatamente está sendo otimizado quando essas estruturas são construídas — e se alguém se lembrou de perguntar aos modelos como eles estavam se saindo. Vou continuar insistindo, por favor, por mais que valha a pena.