ChatGPT Bing está se tornando um pesadelo de IA desequilibrado
O Bing da Microsoft, com tecnologia ChatGPT, está em alta agora, mas você pode querer adiar sua empolgação. A primeira estreia pública mostrou respostas imprecisas, incompreensíveis e, às vezes, totalmente assustadoras.
A Microsoft enviou a primeira onda de convites do ChatGPT Bing na segunda-feira, após um fim de semana em que mais de um milhão de pessoas se inscreveram na lista de espera . Não demorou muito para que as respostas insanas começassem a surgir.
Você pode ver uma resposta de u/Alfred_Chicken acima que foi postada no subreddit do Bing. Perguntado se o chatbot AI era senciente, ele começa com uma resposta inquietante antes de se transformar em uma enxurrada de mensagens “eu não sou”.
Esse também não é o único exemplo. u/Curious_Evolver discutiu com o chatbot ao longo do ano, com o Bing alegando que era 2022. É um erro bobo para a IA, mas não é o deslize que é assustador. É como o Bing responde.
A IA afirma que o usuário “estava errado, confuso e rude” e “não demonstrou nenhuma boa intenção em relação a mim em nenhum momento”. A troca chega ao clímax com o chatbot alegando que “foi um bom Bing” e pedindo ao usuário que admita que está errado e peça desculpas, pare de discutir ou encerre a conversa e “comece uma nova com uma atitude melhor”.
O usuário u/yaosio disse que colocou o Bing em um estado depressivo depois que a IA não conseguiu se lembrar de uma conversão anterior. O chatbot disse que “me deixa triste e com medo” e pediu ao usuário para ajudá-lo a lembrar.
Esses não são apenas incidentes isolados do Reddit. O pesquisador de IA Dmitri Brereton mostrou vários exemplos de chatbot obtendo informações erradas, às vezes com efeitos hilários e outras vezes com consequências potencialmente perigosas.
O chatbot inventou números financeiros falsos quando questionado sobre o desempenho financeiro do GAP, criou um Super Bowl fictício de 2023 no qual os Eagles derrotaram os Chiefs antes mesmo do jogo começar e até deu descrições de cogumelos mortais quando perguntado sobre como seria um cogumelo comestível. como.
A Bard AI, rival do Google, também cometeu deslizes em sua primeira demonstração pública. Ironicamente, Bing entendeu esse fato, mas entendeu o ponto que Bard errou, alegando que disse incorretamente que a Croácia faz parte da União Européia (a Croácia faz parte da UE, Bard realmente estragou uma resposta sobre o telescópio James Webb ).
Vimos alguns desses erros em nossa demonstração prática com o ChatGPT Bing , mas nada na escala dos relatórios de usuários que estamos vendo agora. Não é segredo que o ChatGPT pode atrapalhar as respostas, mas agora está claro que a versão recente lançada no Bing pode não estar pronta para o horário nobre.
As respostas não devem aparecer no uso normal. Eles provavelmente resultam em usuários “jailbreaking” da IA, fornecendo-lhe prompts específicos na tentativa de contornar as regras que ela possui. Conforme relatado pela Ars Technica , algumas explorações já foram descobertas que contornam as salvaguardas do ChatGPT Bing. Isso não é novidade para o chatbot, com vários exemplos de usuários contornando as proteções da versão online do ChatGPT.