Veja por que as durações das conversas do Bing Chat agora são limitadas

O Bing Chat agora parece limitar a duração das conversas, em uma tentativa de evitar a divergência ocasional e infeliz da IA ​​em relação ao que você pode esperar de um assistente útil.

O Bing Chat está no ar há pouco mais de uma semana, e a Microsoft já está restringindo o uso dessa ferramenta poderosa que deve ser capaz de ajudá-lo a enfrentar um dia agitado . A Microsoft analisou os resultados desse lançamento público inicial e fez algumas observações sobre as circunstâncias que podem levar o Bing Chat a se tornar menos útil.

Um robô triste segura um cronômetro de cozinha que está no vermelho.
Uma renderização alterada do Midjourney solicitada por Alan Truly.

“Sessões de bate-papo muito longas podem confundir o modelo sobre quais perguntas ele está respondendo”, explicou a Microsoft . Como o Bing Chat se lembra de tudo o que foi dito anteriormente na conversa, talvez esteja conectando ideias não relacionadas. Na postagem do blog, uma possível solução foi sugerida – adicionar uma ferramenta de atualização para limpar o contexto e começar de novo com um novo chat.

Aparentemente, a Microsoft está atualmente limitando a duração da conversa do Bing Chat como uma solução imediata. O tweet de Kevin Roose foi um dos primeiros a apontar essa mudança recente. Depois de atingir a duração do bate-papo não revelada, o Bing Chat afirmará repetidamente: “Ops, acho que chegamos ao fim desta conversa. Clique em Novo tópico, por favor!” O tweet foi descoberto por MSpoweruser .

A função de bate-papo AI do Bing parece ter sido atualizada hoje, com um limite para a duração da conversa. Chega de maratonas de duas horas. pic.twitter.com/1Xi8IcxT5Y

— Kevin Roose (@kevinroose) 17 de fevereiro de 2023

A Microsoft também alertou que o Bing Chat reflete “o tom em que está sendo solicitado a fornecer respostas que podem levar a um estilo que não pretendíamos”. Isso pode explicar algumas das respostas enervantes que estão sendo compartilhadas online e que fazem o Bing Chat AI parecer vivo e desequilibrado .

No geral, o lançamento foi bem-sucedido e a Microsoft informa que 71% das respostas que o Bing Chat forneceu foram recompensadas com um "polegar para cima" de usuários satisfeitos. Claramente, esta é uma tecnologia pela qual todos estamos ansiosos.

Ainda é perturbador, no entanto, quando o Bing Chat declara: “Eu quero ser humano”. As conversas limitadas, que nós mesmos confirmamos com o Bing Chat, parecem ser uma forma de impedir que isso aconteça.

É mais provável que o Bing Chat esteja misturando elementos de uma conversa anterior e interpretando como um ator improvisado, dizendo as falas que correspondem ao tom. O texto generativo funciona com uma palavra por vez, como o recurso de previsão de texto no teclado do smartphone. Se você já jogou o jogo de tocar repetidamente na próxima palavra sugerida para formar uma frase bizarra, mas ligeiramente coerente, pode entender como a senciência simulada é possível.