Por que tenho que esperar tanto para me inscrever no ChatGPT e em novas contas do Bing?

Na semana passada, as mudanças do AIGC enlouqueceram o mundo, acordar todos os dias pode ser um "mundo novo".

Mas de outra perspectiva, não importa o quão inteligente e disruptivo seja o AIGC, ainda estamos no "velho mundo" ou, para ser mais preciso, deveria ser o mundo "alternativo".

Não apenas os novos plug-ins Bing, Github Copilot X, ChatGPT, Midjourney V5, Firefly da Adobe e até Wenxin Yiyan do Baidu, você precisa entrar na lista de espera para aguardar um lugar antes de experimentá-lo. Este processo é muito semelhante ao sistema de racionamento da economia planificada.

Com mais e mais serviços AIGC, incluindo a atualização do GPT-4 original e Midjourney V5, o tempo da lista de espera parece ser estendido.

▲ Midjourney V5

Até hoje, algumas pessoas ainda existem na nova lista de espera do Bing, sem falar em outras experiências de IA generativas mais recentes.

Talvez tenha sido uma resistência silenciosa às regras tácitas da lista de espera.Alguém fez um site que "enfileira todas as filas com um clique".

Mas a ironia é que a função "juntar com um clique" ainda não foi concluída, você precisa entrar na lista de espera primeiro e o sufixo do nome de domínio do site é wtf, que está cheio de ressentimentos.

Atrás da lista de espera está um serviço mais estável

Quando lancei essa pergunta ao Bing, o Bing encontrou quatro motivos nas três páginas do site oficial do OpenAI.

  • Limite o número de usuários para garantir a qualidade e estabilidade do serviço.
  • Colete feedback do usuário para melhorar as funções e a experiência do serviço.
  • Aumente as expectativas e o senso de participação do usuário e melhore a popularidade e a reputação do serviço.
  • Filtre os usuários que atendem ao grupo-alvo, melhore a taxa de conversão de serviço e a taxa de retenção.

E isso é mais como algumas palavras oficiais da OpenAI, Microsoft, Google e outras grandes empresas para espera indefinida.

Relativamente falando, o ChatGPT, que foi o primeiro a entrar no público, passou por muitas oscilações no serviço do ChatGPT com a atualização do modelo e a substancial redução de preço.

Problemas de estabilidade, como engolir registros de perguntas e respostas, tempo de inatividade e confusão na lista de perguntas e respostas.

O novo Bing baseado em OpenAI também tem retórica excessiva.Até agora, a Microsoft também está limitando o número e a duração das conversas no novo Bing.

Você poderia argumentar que limitar o número de pessoas que usam o ChatGPT e o novo Bing fornece respostas e geração de conteúdo mais estáveis ​​e rápidas.

Mas você deve saber que essas funções e serviços já consumiram recursos consideráveis, ocupando quase metade do poder computacional do Microsoft Azure.

Atualmente, o AIGC ainda não inaugurou superaplicativos e ainda está em um processo de iteração rápida, podendo-se até dizer que ainda é uma versão de teste Beta.

Interagir com IA por meio de caixas de diálogo tradicionais não corresponde exatamente à situação em que todos terão um smartphone em 2023.

AIGC só pode ser considerado como uma função agora, e o próximo Copilot, Firefly, etc. são produtos mais parecidos.

▲ Função copiloto do Office 365

Mas eles ainda não estão abertos ao público, ficando na lista de espera um a um.

De um certo ponto de vista, Microsoft, Google e Adobe ainda estão "polindo" seus próprios produtos, mas de outro ponto de vista, se quiserem abrir a porta para todos, ou dizer que a IA se torna o copiloto de todos, ainda precisa romper algum "gargalo".

O próspero AIGC pode começar a atingir o gargalo

O "gargalo" aqui não é a manifestação externa, a ética, as leis e os regulamentos encontrados pela IA generativa ou a precisão de sua resposta.

Em vez disso, é o hardware por trás da IA ​​que fornece poder de computação, bem como vários poderes de computação em nuvem para treinamento.

A Microsoft continua investindo pesadamente em OpenAI, investindo bilhões de dólares sucessivamente e gradualmente emergindo um novo bing baseado em GPT-4 e um novo Office que ainda está na lista de espera.

Ao mesmo tempo, para garantir que o novo bing e o subsequente novo Office com a função Copilot possam responder de forma estável e rápida.

A Microsoft também fornece e reserva metade do poder de computação e capacidade de computação de seu serviço de nuvem Azure.

Isso também levou à tensão dos recursos internos de computação do Azure da Microsoft. O Information entrevistou funcionários internos da Microsoft.Para recursos de computação de hardware limitados, a Microsoft está implementando um sistema interno de lista de espera de hardware.

Outras equipes e departamentos da Microsoft que desenvolvem modelos de aprendizado de máquina desejam chamar os serviços de nuvem de IA do Azure, eles precisam ser aprovados e relatados passo a passo e, finalmente, decididos por um vice-presidente.

Assim como estamos na fila para experimentar novos serviços generativos de IA, além do novo bing e novos serviços Office e OpenAI, outros departamentos da Microsoft também estão esperando pelo excesso de poder de computação em nuvem do Azure.

No entanto, com a estratégia All in OpenAI da Microsoft, o poder de computação e a capacidade da nuvem do Azure também são muito limitados.

Além das chamadas internas, o Azure também fornece vários produtos e serviços, incluindo IA, computação, contêineres, nuvem híbrida, Internet das Coisas, etc.

Como provedor de serviços em nuvem, o Azure se expandiu para mais de 60 regiões em todo o mundo, e seus produtos de servidor externo e receita de serviços em nuvem representam 36% da receita total da Microsoft.

No entanto, semelhante à equipe interna da Microsoft, os clientes que compram o Azure também são afetados pelo poder de computação limitado, especialmente se quiserem chamar o Azure OpenAI, eles ainda precisam entrar na lista de espera.

A partir do final de 2022, a Microsoft planeja adicionar mais hardware (GPU ou TPU) para expandir mais poder de computação.

E também chegou a um acordo com a Nvidia para adicionar dezenas de milhares de placas de computação GPU H100 ao Azure para fornecer maior treinamento de IA e eficiência de raciocínio para o OpenAI subsequente.

No entanto, atualmente a Microsoft e a Nvidia não divulgaram a implantação do H100 no Azure, e apenas um pequeno número de equipes da Microsoft tem acesso ao H100 (provavelmente novo bing e Office), e a maioria dos departamentos ainda está excluída.

O preço aproximado de uma peça do H100 pode estar em torno de 240.000 yuans.Se isso for usado como referência, a Microsoft precisará investir centenas de milhões de dólares para expandir a capacidade do Azure.

Não apenas a Microsoft, mas os provedores de serviços em nuvem, como Google e Oracle, também estão investindo pesadamente em hardware, como GPUs, para expandir seus serviços em nuvem, preparando-se para o poder da computação antes que o AIGC seja completamente lançado.

▲ Huang Renxun, CEO da Nvidia, e Ilya Sutskever, cofundador e cientista-chefe da OpenAI

No entanto, desde o lançamento do GTC 2022 até o presente, a Nvidia não anunciou o fornecimento e vendas do H100, e não se sabe se o plano de expansão da Microsoft para o Azure será efetivo.

No GTC 2023 deste ano, a Nvidia não trouxe progresso no hardware H100 e A100, mas tem enfatizado as vantagens da Nvidia em hardware de computação em nuvem.

E seu diretor de tecnologia também passou a enfatizar que "a criptomoeda não traz nenhuma contribuição benéfica para a sociedade", e também passou a enfatizar de lado que o campo AIGC será a área em que a Nvidia se concentrará nos próximos 30 anos.

Com a iteração contínua do campo AIGC, a partir de outubro de 2022, as ações da Nvidia também aumentarão, varrendo o declínio anterior dos negócios causado pela recessão da criptomoeda.

Atualmente, o valor de mercado da Nvidia atingiu um ponto alto, quase igual à soma do valor de mercado da Intel, AMD e ARM.

No entanto, um valor de mercado tão alto não parece melhorar o fornecimento de hardware. Pelo contrário, como grandes empresas como Google e Microsoft investem em hardware de computação em nuvem independentemente de custo e recursos, de acordo com a situação anterior de fornecimento da Nvidia, é muito provável que haja outro pânico na situação das placas gráficas industriais.

Não apenas o status do fornecimento de hardware, mas também a matriz de computação composta por essas GPUs de alto desempenho tem alta potência. A potência de uma única placa de computação H100 com interface SXM chega a 700W.

O consumo de energia dos centros de computação para treinamento de modelos de IA e processamento de big data é realmente impressionante.

Em 2021, David Patterson e Joseph Gonzalez, da Universidade da Califórnia, mostraram por meio de pesquisas que o treinamento do GPT-3 consumirá aproximadamente 1.287 gigawatts-hora de eletricidade, o que equivale ao consumo anual de eletricidade de 120 lares americanos.

Ao mesmo tempo, o jornal também descobriu que o treinamento do GPT-3 produziria 502 toneladas de emissões de carbono, o que equivale às emissões anuais de 110 carros.

Eles também enfatizaram que esse é apenas o custo de treinamento de um modelo e, à medida que inunda o mercado, também consumirá mais recursos, que podem ser superiores ao custo de treinamento.

O GPT-3 da OpenAI usa 175 bilhões de parâmetros ou variáveis, enquanto os parâmetros do GPT-4 são estimados entre 175 bilhões e 280 bilhões. Para consumo de energia, a demanda por computação em nuvem só aumentará.

Para esse fim, o CEO da OpenAI, Sam Altman, disse em entrevista ao The Verge que a OpenAI está procurando maneiras eficazes de melhorar o desempenho e a segurança do modelo.

Em outras palavras, a OpenAI também está tentando economizar recursos de hardware e energia para treinar e executar modelos por meio de algoritmos mais eficientes.

O mecanismo Waitlist, de uma perspectiva superficial, garante a experiência AIGC atual e a velocidade de resposta dos serviços relacionados.

Mas, de uma perspectiva mais profunda, é também uma luta por recursos, uma competição entre o poder de computação e a capacidade dos centros de computação em nuvem com GPUs e TPUs como núcleo, e também é uma competição com alto investimento e alto consumo de energia em um nível macro. .

Até agora, AIGC ainda está em um estágio de "caixa cega", e a demanda e ocupação de recursos ainda não estão claras.

No entanto, ficar na fila da lista de espera de vários serviços de IA é de fato muito semelhante aos filmes de ficção científica, onde as pessoas estão constantemente na fila para entrar na fábrica controlada por IA para fornecer os recursos necessários para sua operação.

A lista de espera é a lista de espera no mundo virtual e também pode ser uma fila que atende a IA no mundo real no futuro.

#Bem-vindo a prestar atenção à conta pública oficial do WeChat de Aifaner: Aifaner (ID do WeChat: ifanr), conteúdo mais interessante será apresentado a você o mais rápido possível.

Ai Faner | Link Original · Ver comentários · Sina Weibo