A Microsoft pode ter sabido sobre as respostas desequilibradas do Bing Chat meses atrás
O Bing Chat AI da Microsoft teve um começo difícil, mas parece que a Microsoft sabia dos problemas bem antes de sua estreia pública. Uma postagem de suporte no site da Microsoft faz referência a respostas “rudes” do bot de bate-papo “Sidney”, que é uma história que ouvimos na semana passada. Aqui está o problema – a postagem foi feita em 23 de novembro de 2022.
A revelação vem de Ben Schmidt , vice-presidente de design de informação da Nomic, que dividiu o cargo com Gary Marcus , um autor que cobre IA e fundador da Geometric Intelligence. A história diz que a Microsoft testou o Bing Chat – chamado Sidney, de acordo com o post – na Índia e na Indonésia em algum momento entre novembro e janeiro antes de fazer o anúncio oficial.
Perguntei à Microsoft se esse era o caso e ela compartilhou a seguinte declaração:
“Sydney é um codinome antigo para um recurso de bate-papo baseado em modelos anteriores que começamos a testar há mais de um ano. Os insights que reunimos como parte disso ajudaram a informar nosso trabalho com a nova visualização do Bing. Continuamos a ajustar nossas técnicas e estamos trabalhando em modelos mais avançados para incorporar os aprendizados e feedback para que possamos oferecer a melhor experiência de usuário possível. Continuaremos a compartilhar atualizações sobre o progresso em nosso blog. ”
A postagem inicial mostra o bot de IA discutindo com o usuário e estabelecendo as mesmas formas de frase que vimos quando o Bing Chat disse que queria “ser humano ”. Mais adiante no tópico, outros usuários concordaram com suas próprias experiências, repostando o agora infame emoji sorridente do Bing Chat, que segue a maioria de suas respostas.
Para piorar a situação, o postador inicial disse que pediu para fornecer feedback e relatar o chatbot, dando alguma credibilidade ao fato de que a Microsoft estava ciente dos tipos de respostas que sua IA era capaz.
Isso vai contra o que a Microsoft disse nos dias seguintes à explosão do chatbot na mídia. Em um anúncio cobrindo as próximas mudanças no Bing Chat , a Microsoft disse que “entretenimento social”, que é presumivelmente uma referência às maneiras como os usuários tentaram enganar o Bing Chat em respostas provocativas, era um “novo caso de usuário para bate-papo”.
A Microsoft fez várias alterações na IA desde o lançamento, incluindo a redução significativa da duração das conversas. Este é um esforço para conter os tipos de respostas que vimos circulando alguns dias depois que a Microsoft anunciou o Bing Chat pela primeira vez. A Microsoft diz que está trabalhando para aumentar os limites de bate-papo .
Embora a história por trás do teste do Bing Chat pela Microsoft permaneça no ar, está claro que a IA estava sendo planejada há algum tempo. No início deste ano, a Microsoft fez um investimento multibilionário na OpenAI após o sucesso do ChatGPT , e o próprio Bing Chat foi desenvolvido em uma versão modificada do modelo GPT da empresa. Além disso, a Microsoft postou um blog sobre “IA responsável” poucos dias antes de anunciar o Bing Chat para o mundo.
Existem várias questões éticas em torno da IA e seu uso em um mecanismo de busca como o Bing, bem como a possibilidade de a Microsoft lançar o Bing Chat antes que ele estivesse pronto e sabendo do que era capaz. A postagem de suporte em questão foi atualizada pela última vez em 21 de fevereiro de 2023, mas o histórico da pergunta inicial e as respostas mostram que elas não foram revisadas desde a data de postagem original.
É possível que a Microsoft tenha decidido seguir em frente de qualquer maneira, sentindo a pressão do próximo Google Bard e o aumento significativo da popularidade do ChatGPT.