A Microsoft pode ter ignorado os avisos sobre as respostas desequilibradas do Bing Chat
O Bing Chat da Microsoft está em um lugar muito melhor do que quando foi lançado em fevereiro, mas é difícil ignorar os problemas que o chatbot com tecnologia GPT-4 teve quando foi lançado. Ele nos disse que queria ser humano , afinal, e muitas vezes se desfez em respostas desequilibradas. E de acordo com um novo relatório, a Microsoft foi avisada sobre esses tipos de respostas e decidiu lançar o Bing Chat de qualquer maneira.
De acordo com o Wall Street Journal , a OpenAI, a empresa por trás do ChatGPT e do modelo GPT-4 que alimenta o Bing Chat, alertou a Microsoft sobre a integração de seu modelo inicial de IA ao Bing Chat. Especificamente, o OpenAI sinalizou respostas “imprecisas ou bizarras”, que a Microsoft parece ter ignorado.
O relatório descreve uma tensão única entre a OpenAI e a Microsoft, que firmaram uma parceria aberta nos últimos anos. Os modelos da OpenAI são construídos em hardware da Microsoft (incluindo milhares de GPUs Nvidia ), e a Microsoft utiliza a tecnologia da empresa no Bing, Microsoft Office e no próprio Windows. No início de 2023, a Microsoft chegou a investir US$ 10 bilhões na OpenAI, quase comprando a empresa de imediato.
Apesar disso, o relatório alega que os funcionários da Microsoft têm problemas com acesso restrito aos modelos da OpenAI e que estavam preocupados com o ChatGPT ofuscando o Bing Chat inundado por IA. Para piorar a situação, o Wall Street Journal relata que a OpenAI e a Microsoft vendem a tecnologia da OpenAI, levando a situações em que os fornecedores estão lidando com contatos em ambas as empresas.
O maior problema, segundo o relatório, é que a Microsoft e a OpenAI estão tentando ganhar dinheiro com um produto similar. Com o apoio da Microsoft, mas não controlando o OpenAI, o desenvolvedor do ChatGPT é livre para fazer parcerias com outras empresas, algumas das quais podem competir diretamente com os produtos da Microsoft.
Com base no que vimos, os avisos relatados pela OpenAI se mantiveram firmes. Pouco depois de lançar o Bing Chat, a Microsoft limitou o número de respostas que os usuários poderiam receber em uma única sessão. E desde então, a Microsoft suspendeu lentamente a restrição à medida que o modelo GPT-4 no Bing Chat é refinado. Os relatórios sugerem que alguns funcionários da Microsoft costumam fazer referência a “Sydney”, zombando dos primeiros dias do Bing Chat (codinome Sydney) e suas respostas.