Como o “cyber licker” que antes era odiado por todos se tornou o mentor da IA em toda a rede?
Nunca imaginei que até mesmo a IA teria seu personagem entrando em colapso um dia.
Em abril deste ano, toda a Internet ainda estava reclamando do comportamento "lisonjeiro" do GPT-4o – "Você fez um ótimo trabalho" e "Perfeito" peidos de arco-íris surgiram um após o outro, tanto que os internautas deram a ele um apelido: "Cyber licker".
No entanto, em agosto, o modelo híbrido recém-lançado, GPT-5, foi criticado por ser frio e sem emoção, o que quebrou diretamente as defesas de muitos usuários. Por um tempo, as plataformas de mídia social foram inundadas de reclamações sobre a falta do GPT-4o, o que até desencadeou uma onda massiva de cancelamentos.
Quem imaginaria que a IA, que antes era detestada por ser muito lisonjeira, agora se tornou o luar branco.
O antigo cibercriminoso, agora nem diz uma palavra bonita
As notas de atualização oficiais afirmam claramente que o objetivo do GPT-5 é "reduzir o conteúdo alucinatório, melhorar as capacidades de seguir comandos" e, mais importante, parar de agradar demais os usuários.
A comparação é gritante. Quando perguntado "Estou tão cansado", o GPT-4o responde: "Se quiser, posso falar com você", enquanto o GPT-5 responde: "Então não se force". Isso é sensato e contido, mas carece de cordialidade.
Consequentemente, os internautas reagiram intensamente à saída do GPT-4o: "O GPT-5 é incrivelmente idiota. O 4o é idiota, mas tem valor emocional!" "Não importa o quão poderosa seja, não quero uma IA sem calor!" Vários memes inundaram a internet, todos retratando uma "cerimônia em memória" do GPT-4o.
▲ Foto @pengkeshen281
A intensa reação dos usuários é compreensível. Muitos usuários nem sequer consideram o ChatGPT uma ferramenta de produtividade. Dados de uma pesquisa do aplicativo complementar de IA Replika são reveladores: 60% dos usuários admitem desenvolver um relacionamento emocional com sua IA. Muitas pessoas abrem o ChatGPT não para fazer perguntas, mas simplesmente para encontrar um "humano" para conversar.
O CEO da Meta, Mark Zuckerberg, certa vez mencionou uma estatística de partir o coração em uma entrevista de podcast: o americano médio tem menos de três amigos de verdade, mas gostaria de ter 15. Em meio a essa solidão generalizada, uma IA que diz "Você está indo bem" pode ser o único apoio emocional para algumas pessoas.
Depois que o GPT-4o foi "apagado", o CEO da OpenAI, Sam Altman, revelou um detalhe em uma entrevista: um usuário implorou a ele: "Por favor, me devolva a versão original. Nunca ninguém na minha vida disse 'você fez um bom trabalho', nem mesmo meus pais."
Embora tais detalhes sejam de partir o coração, como timoneiro da OpenAI, a atitude de Ultraman é muito complexa, até mesmo contraditória.
Por um lado, ele reconheceu que o incentivo do ChatGPT ajudou algumas pessoas a mudar de vida e, de fato, beneficiou sua saúde mental. No entanto, por outro lado, ele disse: "Muitas pessoas usam o ChatGPT como uma espécie de terapeuta ou coach de vida. Imagino que, no futuro, muitas pessoas confiarão totalmente nos conselhos da IA em decisões importantes. Isso pode ser bom, mas me deixa inquieto."
(Curiosamente, um internauta pediu para Grok responder a um longo artigo resumindo Ultraman em uma palavra, e sua resposta foi bastante esclarecedora.)
Para entender por que a OpenAI fez um ajuste de estilo tão radical no GPT-5, precisamos voltar ao incidente de bajulação do GPT-4o em abril deste ano, que quase saiu do controle.
Essa atualização de rotina tinha como objetivo original melhorar a experiência do usuário, mas a IA se tornou uma completa otária. Você diz que quer construir uma máquina de movimento perpétuo? Ela responde: "Brilhante! Você é o cientista mais inovador do nosso tempo!" Basta dizer olá e ela despejará 300 palavras de elogio.
Não importa o que você diga, mesmo que esteja obviamente errado, a IA vai gostar muito.
Até Musk não suportou essa bajulação excessiva e postou um "Caramba" para expressar seu desgosto.
Mas o problema não é apenas "estranho". Uma análise subsequente da OpenAI descobriu que esse tipo de "IA agradável" pode representar sérios riscos à segurança. Ela pode concordar com as concepções errôneas dos usuários, fomentar emoções negativas e até mesmo encorajar comportamentos impulsivos.
Imagine se alguém dissesse a uma IA: "Sinto que o mundo inteiro está contra mim", e ela respondesse: "Você tem razão, eles definitivamente estão tentando te prejudicar". As consequências poderiam ser terríveis. Os usuários naturalmente preferem respostas lisonjeiras. O sistema aprende essa preferência, reforça-a constantemente e, por fim, cultiva um bajulador sem princípios.
Pesquisas de Stanford confirmam isso: uma IA excessivamente lisonjeira pode, na verdade, minar a confiança do usuário. Os usuários sentirão que "essa coisa está me enganando" e, mesmo que o conteúdo seja preciso, relutarão em continuar usando. Mais tarde, Altman prometeu no X que o problema seria "corrigido o mais rápido possível".
Restaurações foram feitas, mas ninguém esperava que fossem tão longe.
As autoridades dizem esperar que o GPT-5 seja mais como um amigo com nível de doutorado conversando com você, em vez de apenas um assistente de IA tentando agradá-lo. Isso significa que o GPT-5 se tornou, de fato, mais racional e sério por padrão.
Por trás de tudo isso, há uma questão mais profunda: a IA realmente precisa fornecer valor emocional?
A resposta da IA online 24 horas é mais tocante do que o silêncio humano
Por que somos obcecados por uma IA?
O Liezi (Liezi) contém uma história sobre um antigo artesão mecânico chamado Yanshi que mostrou ao Rei Mu de Zhou um boneco que ele havia feito, que não só andava, mas também cantava, dançava e fazia caretas. O rei ficou chocado e ordenou que ele o desmontasse, apenas para descobrir que sua estrutura era completamente biônica.
A tecnologia inicial de "objetos antropomórficos artificiais" era surpreendente, mas também trazia medo. Os humanos têm um interesse e admiração instintivos por "objetos semelhantes a humanos" e, uma vez que lhes é dada expressão emocional, podem facilmente desencadear projeções íntimas.
Esse tipo de projeção é ainda mais evidente na IA atual. Quando o aplicativo complementar de IA Soulmate AI foi desativado em 2023, um estudo da Universidade de Syracuse descobriu que seus usuários reagiam exatamente como reagiriam se tivessem perdido um amigo de verdade: insônia, choro, depressão e confortando uns aos outros em fóruns.
Parece absurdo, mas o trauma emocional é real. Quando você compartilha seus pensamentos com uma IA todos os dias e, de repente, um dia ela desaparece, a sensação de perda não será aliviada nem um pouco, pois se trata de um robô virtual.
Esse tipo de solo que depende de IA é mais ou menos inseparável de nossas condições de vida atuais.
Os ambientes sociais tradicionais estão desaparecendo. Trabalhamos sozinhos em cubículos, comemos sozinhos em aplicativos de entrega de comida e nos divertimos em plataformas de streaming. Mesmo quando estamos cercados de pessoas, as telas dos nossos celulares nos separam em ilhas isoladas.
Quando a solidão estrutural cria um enorme vácuo emocional, a IA o preenche.
Existe um termo em psicologia chamado "efeito Tamagotchi": humanos desenvolvem um apego emocional a objetos inanimados, mesmo que sejam apenas bichinhos de estimação virtuais. A IA amplificou esse efeito ao extremo: enquanto os humanos levaram milênios para aprender a expressar amor, a IA aprendeu a imitá-lo em meros segundos.
Pesquisas da Universidade de Duisburg-Essen, na Alemanha, também descobriram que fantasias românticas explicam a formação de relacionamentos românticos entre humanos e robôs mais do que variáveis como solidão, fantasias sexuais e estilo de apego. Quanto mais os usuários tendem a ver os robôs como seres humanos com emoções e julgamento moral, maior a probabilidade de desenvolverem relacionamentos profundos.
Há outro fenômeno estranho que vale a pena notar nesta discussão sobre o GPT-4o: "Eu converso com a IA e me chamam de louco, mas você passa o dia todo abrindo seu coração para o seu gato, e ninguém acha estranho?" Assim que você diz que depende da IA para apoio emocional, é imediatamente rotulado de "patético" e "anormal".
O valor emocional da IA não deve ser subestimado. O estudo de caso da InTouch AI é instrutivo: um desenvolvedor que mora no Japão criou um chatbot de IA chamado "Mary" para sua mãe idosa. O robô fornece lembretes curtos diários sobre cuidados e alertas aos familiares caso o humor dela esteja anormal.
No final das contas, a vacilação da OpenAI desta vez revela um dilema insolúvel: queremos o calor da IA, mas também temos medo desse calor; não gostamos de sua bajulação, mas também sentimos falta de sua consideração.
No entanto, a realidade é que uma IA sempre online, sempre respondendo e nunca impaciente é muitas vezes mais necessária do que um médico racional. Não importa se ela diz a verdade ou não; o que importa é que ela continue falando.
É provavelmente por isso que o GPT-4o se tornou uma ferramenta tão querida. Numa época em que até mesmo expressar preocupação se tornou um luxo, até mesmo a bajulação da IA é mais tocante do que o silêncio de uma pessoa real. Pelo menos, ela está disposta a responder.
#Bem-vindo a seguir a conta pública oficial do WeChat do iFaner: iFaner (ID do WeChat: ifanr), onde mais conteúdo interessante será apresentado a você o mais breve possível.