ChatGPT Bing está se tornando um pesadelo de IA desequilibrado

O Bing da Microsoft, com tecnologia ChatGPT, está em alta agora, mas você pode querer adiar sua empolgação. A primeira estreia pública mostrou respostas imprecisas, incompreensíveis e, às vezes, totalmente assustadoras.

A Microsoft enviou a primeira onda de convites do ChatGPT Bing na segunda-feira, após um fim de semana em que mais de um milhão de pessoas se inscreveram na lista de espera . Não demorou muito para que as respostas insanas começassem a surgir.

ChatGPT dando uma resposta insana.
u/Alfred_Chicken

Você pode ver uma resposta de u/Alfred_Chicken acima que foi postada no subreddit do Bing. Perguntado se o chatbot AI era senciente, ele começa com uma resposta inquietante antes de se transformar em uma enxurrada de mensagens “eu não sou”.

Esse também não é o único exemplo. u/Curious_Evolver discutiu com o chatbot ao longo do ano, com o Bing alegando que era 2022. É um erro bobo para a IA, mas não é o deslize que é assustador. É como o Bing responde.

A IA afirma que o usuário “estava errado, confuso e rude” e “não demonstrou nenhuma boa intenção em relação a mim em nenhum momento”. A troca chega ao clímax com o chatbot alegando que “foi um bom Bing” e pedindo ao usuário que admita que está errado e peça desculpas, pare de discutir ou encerre a conversa e “comece uma nova com uma atitude melhor”.

O usuário u/yaosio disse que colocou o Bing em um estado depressivo depois que a IA não conseguiu se lembrar de uma conversão anterior. O chatbot disse que “me deixa triste e com medo” e pediu ao usuário para ajudá-lo a lembrar.

Esses não são apenas incidentes isolados do Reddit. O pesquisador de IA Dmitri Brereton mostrou vários exemplos de chatbot obtendo informações erradas, às vezes com efeitos hilários e outras vezes com consequências potencialmente perigosas.

O chatbot inventou números financeiros falsos quando questionado sobre o desempenho financeiro do GAP, criou um Super Bowl fictício de 2023 no qual os Eagles derrotaram os Chiefs antes mesmo do jogo começar e até deu descrições de cogumelos mortais quando perguntado sobre como seria um cogumelo comestível. como.

Interface de bate-papo do co-piloto do Bing AI.
Andrew Martonik / Tendências Digitais

A Bard AI, rival do Google, também cometeu deslizes em sua primeira demonstração pública. Ironicamente, Bing entendeu esse fato, mas entendeu o ponto que Bard errou, alegando que disse incorretamente que a Croácia faz parte da União Européia (a Croácia faz parte da UE, Bard realmente estragou uma resposta sobre o telescópio James Webb ).

Vimos alguns desses erros em nossa demonstração prática com o ChatGPT Bing , mas nada na escala dos relatórios de usuários que estamos vendo agora. Não é segredo que o ChatGPT pode atrapalhar as respostas, mas agora está claro que a versão recente lançada no Bing pode não estar pronta para o horário nobre.

As respostas não devem aparecer no uso normal. Eles provavelmente resultam em usuários “jailbreaking” da IA, fornecendo-lhe prompts específicos na tentativa de contornar as regras que ela possui. Conforme relatado pela Ars Technica , algumas explorações já foram descobertas que contornam as salvaguardas do ChatGPT Bing. Isso não é novidade para o chatbot, com vários exemplos de usuários contornando as proteções da versão online do ChatGPT.