Neste exato momento, uma empresa de IA fundada por um jovem que abandonou o ensino médio foi “adquirida” pela Nvidia por 140 bilhões.

A maior aquisição da história da Nvidia foi oficialmente concretizada.

A Nvidia acaba de fechar um grande acordo com a startup de chips de IA Groq, envolvendo a impressionante quantia de US$ 20 bilhões (equivalente a 140,5 bilhões de yuans).

De acordo com o comunicado oficial da Groq, o cerne desta transação é a aquisição, pela NVIDIA, de uma licença para a tecnologia de inferência da Groq. O fundador e CEO da Groq, Jonathan Ross, o presidente Sunny Madra e outros executivos se juntarão à NVIDIA para ajudar a promover a implementação da tecnologia licenciada.

Entretanto, a Groq continuará a operar como uma "empresa independente", com o atual diretor financeiro, Simon Edwards, atuando como o novo CEO.

Parece uma colaboração tecnológica e aquisição de talentos, mas Alex Davis, CEO da Disruptive, investidora da Groq, disse à CNBC que a Nvidia adquiriu todos os ativos da Groq, com exceção do incipiente negócio de nuvem GroqCloud.

O próprio Jensen Huang também jogou um jogo duplo em um e-mail para os funcionários, dizendo: "Embora estejamos recrutando os funcionários de destaque da Groq e obtendo licenças para sua propriedade intelectual, não adquirimos a empresa Groq por completo."

Isso é considerado uma aquisição ou uma licença?

A resposta pode ser que a Nvidia gastou US$ 20 bilhões para adquirir as principais tecnologias, patentes e pessoal-chave da Groq, mas deixou uma empresa fantasma para continuar operando o negócio de nuvem.

Para entender por que a Nvidia está disposta a gastar tanto dinheiro, precisamos primeiro entender o que é o Groq.

A Groq foi fundada em 2016 e seu fundador, Jonathan Ross, tem um currículo bastante lendário. Ele abandonou o ensino médio e não concluiu a faculdade, mas projetou a arquitetura principal do chip TPU de primeira geração do Google.

O TPU é um chip personalizado que o Google usa para executar modelos de IA e agora está sendo usado por muitas empresas como uma alternativa às GPUs da Nvidia.

Em 2016, Ross liderou a saída de 7 dos 10 membros principais da equipe do Google TPU e fundou a Groq.

O nome Groq vem de "Grain of Quantum" (Grão Quântico), o que implica sua capacidade de lidar com quantidades massivas de dados em "nível quântico" e também afirma que, na indústria de chips, produtos de pequena escala também podem ser poderosos.

Sua principal arma é a LPU (Unidade de Processamento de Linguagem), um chip ASIC projetado especificamente para inferência de IA. Comparada às GPUs da NVIDIA, a LPU possui uma característica matadora no processamento de inferência de modelos de linguagem complexos: latência ultrabaixa e taxa de transferência ultra-alta.

Simplificando: ao executar o mesmo modelo de IA, o chip da Groq responde mais rapidamente e consome menos energia do que uma GPU. Em alguns cenários de teste, a velocidade de inferência da Groq pode superar em muito a de uma GPU.

Em setembro deste ano, a Groq concluiu uma rodada de financiamento de US$ 750 milhões, avaliando a empresa em US$ 6,9 bilhões. Entre os investidores estavam gigantes do setor como BlackRock, Samsung e Cisco. A meta de receita da Groq para este ano é de US$ 500 milhões, demonstrando seu forte ritmo de crescimento.

Nos últimos anos, o foco da indústria de IA tem sido principalmente o treinamento, com todos competindo para ver quem conseguia treinar o modelo mais robusto. Mas agora a situação mudou, e a demanda no mercado de inferência está experimentando um crescimento explosivo.

Em resumo, o treinamento envolve alimentar o modelo com uma grande quantidade de dados para que ele aprenda, enquanto a inferência ocorre quando o modelo treinado gera uma resposta em uma aplicação do mundo real. Por exemplo, quando você faz uma pergunta ao ChatGPT, o processo de geração de uma resposta é a inferência.

Além disso, a inferência e o treinamento têm requisitos de hardware diferentes.

O treinamento exige imensa capacidade computacional e é normal que leve muito tempo para ser concluído. Já a inferência exige baixa latência e eficiência de resposta contínua; os usuários não querem fazer uma pergunta e esperar indefinidamente por um resultado.

A LPU do Groq é especificamente otimizada para cenários de inferência, que é exatamente a deficiência que a NVIDIA deseja corrigir.

Entretanto, startups de IA como a Groq podem enfrentar dilemas semelhantes: embora sua tecnologia seja promissora e seu ritmo de desenvolvimento seja forte, é muito difícil abrir verdadeiramente o mercado diante das enormes barreiras do ecossistema da Nvidia.

Nessa situação, ser adquirida pela Nvidia pode ser o melhor resultado possível. Pelo menos a tecnologia poderá ser aplicada e a equipe poderá receber recompensas substanciais, o que é melhor do que ficar lutando para se manter no mercado.

Curiosamente, a Nvidia tem se tornado cada vez mais hábil nessa abordagem de "licenciamento de tecnologia + recrutamento de funcionários".

Em setembro deste ano, a Nvidia gastou aproximadamente US$ 900 milhões para contratar Rochan Sankar, CEO da startup de hardware de IA Enfabrica, e sua equipe, novamente licenciando a tecnologia em vez de adquirir a empresa diretamente.

Esse modo de operação é realmente muito inteligente.

Em comparação com a aquisição direta de toda a empresa, o licenciamento de tecnologia e a contratação de equipes terceirizadas permitem uma integração mais rápida das principais competências, evitando um longo período de integração após a aquisição. Além disso, manter uma empresa de fachada para dar continuidade às operações preserva a aparência de diversificação de mercado e evita acusações de monopólio.

Gigantes da tecnologia como Meta, Google e Microsoft têm usado recentemente táticas semelhantes para atrair talentos em IA.

Por exemplo, a Meta, que já conhecemos, gastou muito dinheiro este ano para contratar o CEO Alexandr Wang da empresa de rotulagem de dados Scale AI e adquirir sua licença de tecnologia.

Huang Renxun claramente estudou esse método de jogo a fundo.

No e-mail, ele afirmou diretamente que desejava integrar os processadores de baixa latência da Groq à arquitetura AI Factory da NVIDIA, permitindo que a plataforma suportasse uma gama mais ampla de inferência de IA e cargas de trabalho em tempo real. Em outras palavras: quero integrar sua tecnologia ao meu ecossistema e continuar vendendo minhas soluções completas.

Além disso, devido ao boom da IA, as GPUs da Nvidia estão em alta demanda e com baixa oferta, deixando a empresa com mais dinheiro do que pode gastar, e as atividades de investimento de Huang Renxun estão se tornando cada vez mais agressivas.

Em setembro deste ano, a Nvidia anunciou que investiria até US$ 100 bilhões na OpenAI, sob a condição de que a OpenAI se comprometesse a implantar pelo menos 10 gigawatts de hardware da Nvidia. Embora esse investimento ainda não tenha sido oficialmente finalizado, as negociações estão em andamento.

No mesmo mês, a Nvidia também anunciou um investimento de US$ 5 bilhões em sua rival de longa data, a Intel.

Além desses grandes investimentos, a Nvidia também investiu em diversas empresas de infraestrutura de IA, como a empresa de energia Crusoe, a desenvolvedora de modelos de IA Cohere e a provedora de serviços em nuvem CoreWeave. A Nvidia parece determinada a ter participação em todos os elos do ecossistema de IA.

O destino de Groq já ensinou uma lição àqueles que vieram depois dele.

Nesse cenário, o melhor resultado pode não ser abrir o capital da empresa e fazer alarde, mas sim ser notado por um gigante e sair de cena com elegância, recebendo uma generosa quantia em dinheiro.

#Siga a conta oficial do iFanr no WeChat: iFanr (ID do WeChat: ifanr), onde você encontrará conteúdo ainda mais interessante o mais breve possível.

ifanr | Link original · Ver comentários · Sina Weibo