Acaba de ser lançada a lagosta da Nvidia! As declarações ousadas de Jensen Huang, “Humanos, Carros, Casas, Terra e Chips”, prometem gerar trilhões em receita.

A apresentação principal da Nvidia na GTC deste ano foi provavelmente a que teve menos surpresas em sua história.

Em 2022, o foco foi o metaverso; em 2023-2024, a IA generativa; e em 2025, a IA física. Mas este ano é diferente. Mesmo antes do início do discurso do fundador da NVIDIA, Jensen Huang, todos na plateia já sabiam a resposta: Agente.

Até mesmo a Nvidia montou discretamente uma zona interativa "Monte sua Garra" no campus da GTC, permitindo que os participantes construíssem seus próprios agentes de IA no local. De chips a modelos, da lagosta da Nvidia a data centers, o subtexto do discurso de abertura deste ano pode ser resumido em uma frase:

Tudo deve ceder ao Agente.

Vera Rubin, projetada especificamente para a Agentic AI, foi lançada oficialmente.

Se a arquitetura Hopper inaugurou a era da IA ​​generativa, permitindo que as máquinas "falassem", então a missão de Vera Rubin é inaugurar a era da IA ​​agentiva, permitindo que as máquinas "trabalhem".

  • A arquitetura NVIDIA Vera Rubin compreende sete chips, cinco sistemas de rack e um supercomputador para agentes de IA.
  • Os sete chips são: CPU NVIDIA Vera, GPU NVIDIA Rubin, NVIDIA NVLink e outros. ™ 6 switches, NVIDIA ConnectX-9 Super NIC, NVIDIA BlueField-4 DPU e NVIDIA Spectrum ™ -6 switches Ethernet e a recém-integrada CPU NVIDIA Groq 3 LPU.
  • Os cinco racks são: o rack NVIDIA Vera Rubin NVL72, o rack de CPU NVIDIA Vera, o rack NVIDIA Groq 3 LPX, o rack de armazenamento NVIDIA BlueField-4 STX e o rack Ethernet NVIDIA Spectrum-6 SPX.

No passado, a IA era como um bibliotecário extremamente inteligente. Fazíamos uma pergunta e ela folheava lentamente os livros e organizava a resposta. Tolerávamos essa lentidão porque nós mesmos somos lentos para digitar e ler.

Mas os agentes são completamente diferentes. Eles não só precisam pensar com modelos complexos, como também recorrer freneticamente a ferramentas — como abrir navegadores, controlar computadores virtuais na nuvem e comparar dados entre inúmeras bases de dados. Além disso, a IA tem uma tolerância extremamente baixa a ferramentas; exige que todas as operações sejam concluídas em milissegundos.

"Vai marcar a memória profundamente", descreveu Huang Renxun no palco.

À medida que os modelos crescem, com o comprimento dos contextos aumentando de centenas de milhares de tokens para milhões, e com a necessidade de processar dados estruturados e não estruturados simultaneamente, as arquiteturas de computação tradicionais começam a apresentar dificuldades. Para enfrentar esse desafio, a NVIDIA apresentou sua primeira resposta: a nova CPU Vera.

Este chip é único; é o primeiro processador do mundo projetado especificamente para a era dos agentes inteligentes, IA e aprendizado por reforço. Ele é duas vezes mais eficiente que as CPUs tradicionais para montagem em rack, 50% mais rápido e utiliza memória LPDDR5X, permitindo desempenho extremamente alto em single-thread, grande taxa de transferência de dados e extrema eficiência energética.

Jensen Huang nem sequer escondeu o orgulho: "Nunca pensamos que venderíamos CPUs separadamente, mas agora, definitivamente, é um negócio multimilionário."

Logo em seguida vem a GPU Rubin, um único chip com impressionantes 288 GB de memória. É como um pensador com capacidade cerebral ilimitada, projetado especificamente para lidar com modelos de linguagem cada vez mais complexos e centenas de milhões de caches de chave-valor de contexto.

Além de empilhar CPUs e GPUs, a nova arquitetura Vera Rubin da NVIDIA dobra a largura de banda do NVLink, chegando a 260 TB/s de largura de banda total de interconexão.

Há dez anos, o DGX-1 utilizava a primeira geração do NVLink para conectar oito placas, uma maravilha projetada especificamente para pesquisadores de IA; na era Hopper, havia o NVLink 4; e a recente arquitetura Blackwell utilizava o NVLink 72 para alcançar a interconexão completa de 72 GPUs, com uma largura de banda de 130 TB/s.

Para complementar a Vera Rubin, a Jensen Huang apresentou um rack totalmente novo chamado Kyber. Nesse rack, os nós de computação são inseridos verticalmente, com switches NVLink de sexta geração atrás deles. Abandonando completamente as limitações do Ethernet tradicional ou do InfiniBand, ele conecta diretamente 144 GPUs em um único domínio NVLink.

Mesmo uma empresa poderosa como a Vera Rubin enfrenta dificuldades quando confrontada com a demanda extrema de "gerar um número ilimitado de tokens".

No mundo da computação, a taxa de transferência (a capacidade de processar uma quantidade enorme de tarefas simultaneamente) e a latência (o tempo de resposta extremamente rápido de uma única tarefa) são inimigas mortais na física. A Nvidia é líder absoluta em taxa de transferência, mas as arquiteturas tradicionais de GPUs são complexas demais para gerar tokens com latência extremamente baixa.

É aí que a Groq entra em cena. A NVIDIA havia "adquirido" e licenciado a tecnologia da equipe Groq anteriormente e, hoje, lançou oficialmente a Groq LPU (Unidade de Processamento de Linguagem).

Jensen Huang utilizou um software chamado Dynamo para combinar perfeitamente esses dois elementos, criando a primeira "Inferência Desagregada".

  • Os mecanismos de Prefill e Attention, que são extremamente dispendiosos em termos computacionais, na primeira metade da inferência de IA, são todos tratados por Vera Rubin, uma potência em desempenho.
  • A segunda metade do processo de decodificação, que é o momento em que o token é gerado, é descarregada diretamente para a LPU Groq para reduzir a latência.

Os resultados mostraram que, na camada de inferência de ponta mais valiosa comercialmente, essa combinação aumentou diretamente o desempenho em 35 vezes e também aumentou a taxa de transferência por megawatt em 35 vezes.

Um projeto de código aberto que tira o sono de todos os CEOs.

Na parte final de seu discurso de abertura, Jensen Huang fez uma previsão que deixou toda a plateia sem fôlego: o OpenClaw será o Linux desta era, o HTML desta era.

O OpenClaw, lançado há poucas semanas, já ultrapassou os trinta anos de experiência acumulada do Linux em termos de downloads e influência. Essencialmente, trata-se de um sistema operacional de agentes inteligentes. Ele pode invocar modelos complexos, gerenciar arquivos, dividir tarefas, coordenar subagentes e até mesmo enviar e-mails e mensagens de texto, comunicando-se com pessoas em qualquer modalidade.

Na visão de Huang, toda empresa SaaS eventualmente se tornará uma empresa AgaaS, ou empresa "Agente como Serviço". E todo CEO agora precisa responder à mesma pergunta: Qual é a sua estratégia para o OpenClaw?

É claro que o código aberto significa liberdade, mas o que as empresas mais precisam é de segurança. Este é também o maior obstáculo para que o OpenClaw possa ser implementado em larga escala.

Para atingir esse objetivo, a NVIDIA, juntamente com uma equipe liderada por Peter Steinberger, fundador do OpenClaw, reuniu um grupo de especialistas de ponta em segurança e computação para lançar a arquitetura de referência NeMoClaw.

Incorpora a tecnologia OpenShell, mecanismos de proteção de rede e recursos de roteamento de privacidade, permitindo que as empresas executem com segurança sistemas de agentes inteligentes em seus próprios ambientes privados.

A NVIDIA oferece suporte a todo o seu conjunto de produtos de modelagem de código aberto, abrangendo todo o ecossistema de agentes inteligentes.

Por exemplo, Nemotron se concentra no raciocínio linguístico, Cosmos se concentra na modelagem do mundo, Groot é voltado para robôs de uso geral, Alpha Mayo serve à direção autônoma, BioNeMo está profundamente envolvido em biologia digital e Earth-2 se concentra na simulação de física de IA.

Jensen Huang enfatizou que esses modelos não são apenas nomes na tabela de classificação. A NVIDIA continuará investindo em seu desenvolvimento; depois do Nemotron 3 veio o Nemotron 4, e depois do Cosmos 1 veio o Cosmos 2, com cada geração se tornando mais poderosa.

Mais importante ainda, todos esses modelos são de código aberto como modelos base, permitindo que qualquer empresa os ajuste e os treine posteriormente para criar inteligência personalizada, adaptada aos seus próprios cenários de negócios. A NVIDIA também anunciou colaborações com parceiros em diversas regiões para ajudar diferentes países e mercados a desenvolverem capacidades de IA localizadas.

No palco, Jensen Huang também anunciou uma lista de colaborações impressionantes. Black Forest Labs, Cursor, LangChain, Mistral, Perplexity, Sarvam e Thinking Machines, fundada por Mira Murati, uniram-se para impulsionar o desenvolvimento do Nemotron 4.

Para enfatizar, a Nvidia não se contenta apenas em vender pás; ela quer liderar pessoalmente a busca por ouro. Mais importante ainda, a Nvidia também está construindo um ecossistema, um sistema completo centrado na era dos agentes inteligentes.

O dinheiro para as placas gráficas dos jogadores foi resultado de um esforço de "financiamento coletivo" que durou 25 anos.

Para entender o domínio assustador da Nvidia hoje, Jensen Huang primeiro voltou 25 anos no tempo.

Naquela época, não existia ChatGPT, nem modelos grandes, apenas um grupo de jovens montando PCs freneticamente para fazer o jogo rodar melhor. "GeForce é a melhor campanha de marketing da Nvidia de todos os tempos", disse Jensen Huang com um sorriso no palco.

Jensen Huang admitiu francamente que a GeForce foi projetada para atrair futuros clientes. Eles iriam infiltrar nossos computadores com placas de vídeo para jogos enquanto ainda não tínhamos condições de comprar produtos de nível empresarial. Dia após dia, ano após ano.

Foi graças ao apoio de gerações de jogadores que a Nvidia tomou uma decisão, há 20 anos, que parecia louca na época e quase levou os lucros da empresa à falência: desenvolver o CUDA e colocá-lo na área de trabalho de todos os desenvolvedores do mundo.

Isso pode ser descrito como uma história de espera nas sombras. Ao longo de 13 gerações de arquitetura e 20 anos de esforço incansável, a NVIDIA transformou completamente o CUDA em um gigante com centenas de milhões de instalações.

Isso também explica por que, quando o "Big Bang" do aprendizado profundo chegou, Alex Krizhevsky e Ilya Sutskever perceberam que não tinham outra opção a não ser usar GPUs da Nvidia.

A Nvidia não estava simplesmente no lugar certo na hora certa; ela passou 20 anos construindo sua própria turbina eólica.

Uma vez que a roda de inércia começa a girar, ela nunca mais para. Porque, nessa roda de inércia, o hardware é apenas um meio; o que realmente une os desenvolvedores são as milhares e milhares de ferramentas, frameworks e projetos de código aberto.

Já que foram as placas gráficas GeForce para jogos que trouxeram o poder de computação da IA ​​(CUDA) para o mundo naquela época, agora, dez anos depois, é hora de a IA totalmente desenvolvida retribuir ao seu "lar" original.

No palco, Jensen Huang apresentou o DLSS 5, impressionando toda a plateia. Em resumo, a NVIDIA está reinventando a computação gráfica com IA. A renderização 3D tradicional usa "dados estruturados", que são rígidos e 100% controláveis; enquanto a IA generativa usa "computação probabilística", que é imaginativa e extremamente realista.

Anteriormente, essas duas abordagens eram completamente diferentes, mas no DLSS 5, a NVIDIA conseguiu combiná-las, usando dados 3D controláveis ​​como base e IA generativa para preencher e renderizar detalhes. Os visuais resultantes evitam as ilusões e desalinhamentos frequentemente encontrados em IA, ao mesmo tempo que possuem uma textura surpreendentemente realista.

"O mundo gerado tornou-se extremamente belo e, ao mesmo tempo, completamente sob controle."

Mas não se trata apenas de um grupo de nerds exibindo suas habilidades para obter altas taxas de quadros em jogos. Jensen Huang afirma que essa lógica de integrar "dados estruturados" com "IA generativa" será repetida inúmeras vezes em todos os setores.

"Este é o meu slide favorito."

No ponto culminante de seu discurso, Jensen Huang exibiu um diagrama arquitetônico extremamente complexo, dizendo que era seu slide favorito. Em seguida, acrescentou em tom de brincadeira que sua equipe o havia aconselhado repetidamente a não mostrar o diagrama, mas ele insistiu, dizendo: "De qualquer forma, alguns de vocês entraram de graça, este é o preço do ingresso."

Esta "apresentação de slides extremamente persistente" revela verdadeiramente a próxima presa da Nvidia: os centros de dados corporativos globais.

No passado, os dados corporativos eram divididos em duas categorias.

Um tipo são os dados estruturados, como as tabelas enormes em bancos de dados comuns como SQL e Pandas, que formam a base das operações comerciais. O outro tipo são os dados não estruturados, como as vastas quantidades de PDFs, vídeos e gravações de áudio, que representam 90% das informações do mundo, mas que muitas vezes se tornam inúteis devido à dificuldade de recuperação.

Durante décadas, o processamento dessas enormes planilhas do Excel foi domínio exclusivo das CPUs. Quando humanos consultam essas planilhas, a velocidade da CPU mal dá conta do recado. Mas Jensen Huang apontou com perspicácia a tendência futura: "No futuro, serão os agentes de IA que usarão esses bancos de dados estruturados."

Quando milhares de agentes de IA incansáveis ​​lançam simultaneamente consultas a um banco de dados a uma velocidade milhões de vezes maior que a dos humanos, os sistemas de computação tradicionais com CPU não têm sequer a chance de respirar e são instantaneamente sobrecarregados.

Para resolver esse problema, a Nvidia apresentou seu primeiro aplicativo revolucionário de baixo nível: o cuDF. Ele ignora a CPU e aproveita o poder de computação paralela impressionante da GPU para aumentar drasticamente a velocidade de processamento desses dados.

Para dados não estruturados, a NVIDIA revelou sua segunda arma: o cuVS, uma biblioteca projetada especificamente para bancos de dados vetoriais e dados não estruturados. Com essas duas bibliotecas subjacentes, a NVIDIA controla efetivamente a essência do processamento global de dados, redefinindo a forma como as empresas devem lidar com dados por meio de IA.

Os efeitos dos dois conjuntos de ferramentas também foram bastante notáveis. Huang citou inúmeros exemplos de parceiros, incluindo a Nestlé, que processa diariamente dados massivos da cadeia de suprimentos abrangendo 185 países. Após a migração para o IBM Watsonx.data, acelerado pela NVIDIA, a velocidade de processamento aumentou cinco vezes, enquanto os custos caíram 83%.

Este é o aspecto assustador da "computação acelerada". Quando a velocidade der um salto de várias ordens de magnitude, os custos cairão drasticamente e novos modelos de negócios surgirão nesse momento.

Nesse ponto do seu discurso, Huang Renxun continuou falando sobre "algoritmos", "bibliotecas" e "data frames", afirmando categoricamente que "a Nvidia é uma empresa de algoritmos".

A Nvidia integra profundamente suas bibliotecas de algoritmos em todos os provedores de nuvem, e os clientes só adquirem serviços de nuvem para utilizar o poder computacional e a estrutura da Nvidia. É por isso que quase todos os gigantes globais de serviços em nuvem — Google Cloud, AWS, Microsoft Azure e Oracle — precisam entrar na fila para incorporar os serviços da Nvidia em seus data centers.

Os provedores de nuvem, antes poderosos, parecem estar se tornando discretamente a "infraestrutura subjacente" e os "canais de distribuição" do vasto ecossistema da NVIDIA na era da computação acelerada.

Como a Nvidia consegue fazer tudo isso? Jensen Huang deu uma definição extremamente contraintuitiva: a Nvidia é a primeira empresa do mundo que é "verticalmente integrada, mas horizontalmente aberta".

Na etapa seguinte do processo produtivo, a empresa fabrica seus próprios chips e sistemas operacionais; na etapa seguinte, ela compreende os cenários de aplicação de cada setor industrial.

Operadores quantitativos no setor financeiro estão utilizando essa tecnologia, a pesquisa e o desenvolvimento farmacêutico na indústria médica também a utilizam, e até mesmo a estação base na indústria de telecomunicações, que apenas transmite sinais, se tornará um nó de computação de borda executando algoritmos de IA no futuro.

A Nvidia chegou a lançar o Confidential Computing, permitindo que dados e modelos empresariais extremamente sensíveis fossem executados em um ambiente completamente isolado, invisível até mesmo para os operadores. Isso dissipou de vez a última preocupação das gigantes da tecnologia em relação à adoção da IA.

Ela se encapsula como uma série de bibliotecas de algoritmos subjacentes e, então, como água e eletricidade, se integra silenciosamente à infraestrutura de todos; aparentemente distribuindo todos os lucros aos parceiros do ecossistema, a Nvidia, na verdade, garantiu o sustento de toda a era da IA.

US$ 1 trilhão, e ainda haverá escassez.

Segundo a avaliação de Jensen Huang, até 2027, a infraestrutura global de IA atingirá pelo menos US$ 1 trilhão, e essa é uma estimativa conservadora; a demanda real por computação ultrapassará em muito esse valor.

De onde veio esse número? A resposta está na coisa mais importante que a Nvidia fez no ano passado: inferência de IA.

Huang Renxun afirmou categoricamente que muitas pessoas pensam que raciocinar é fácil, mas a verdade é exatamente o oposto.

A inferência de alta complexidade é o aspecto mais desafiador e crucial da IA, pois impulsiona diretamente o crescimento da receita. Para isso, a NVIDIA tomou uma decisão ousada durante o auge de sua arquitetura Hopper, redesenhando-a completamente para criar o NVLink 72, introduzindo o formato de precisão NVFP4 e integrando-o com o Dynamo, o TensorRT-LLM e um conjunto completo de novos algoritmos. Eles chegaram a construir um supercomputador dedicado para otimizar toda a pilha de tecnologia.

A aposta da Nvidia rendeu resultados que superaram em muito as expectativas de todos.

Jensen Huang chegou a afirmar que o Grace Blackwell NVLink 72 oferecia um aumento de desempenho de 35 vezes por watt, mas ninguém acreditou nele na época. Mais tarde, a SemiAnalysis publicou um relatório de análise no qual o analista Dylan Patel afirmou que Huang estava sendo muito conservador e que o aumento real era de 50 vezes.

▲Huang Renxun se referia a si mesmo, em tom de brincadeira, como "Rei Macaco" ou "Rei Simbólico".

Segundo a Lei de Moore, uma geração de um produto normalmente traz uma melhoria de apenas 1,5 vezes, e ninguém esperava que desta vez fosse 50 vezes maior.

Após a melhoria de desempenho, surge outro problema. Um data center de 1 gigawatt, amortizado ao longo de 15 anos, custa impressionantes US$ 40 bilhões para ser construído, e isso antes mesmo da instalação dos equipamentos. Com um investimento dessa magnitude, os sistemas de computação instalados no data center precisam ser os melhores do mundo; caso contrário, cada watt de eletricidade desperdiçado representa uma perda real de receita.

Jensen Huang admitiu que uma grande quantidade de eletricidade está sendo desperdiçada em fábricas de IA em todo o mundo.

Para isso, a NVIDIA lançou a plataforma NVIDIA DSX, baseada na tecnologia de gêmeos digitais Omniverse, que permite aos engenheiros simular toda a fábrica de IA em um espaço virtual antes mesmo de iniciar a construção, simulando claramente tudo, desde a dissipação de calor até a rede elétrica.

Com o auxílio da tecnologia Max-Q, o sistema consegue ajustar dinamicamente o consumo de energia e a capacidade de processamento em tempo real.

Jensen Huang afirmou que o potencial de otimização é pelo menos o dobro. Com o mesmo hardware, após a NVIDIA atualizar seus algoritmos e software, a velocidade de geração de tokens para provedores de serviços como o Fireworks saltou de 700 por segundo para quase 5.000 por segundo, um aumento de sete vezes. Este é o verdadeiro significado de "design colaborativo definitivo".

No passado, os centros de dados armazenavam arquivos; agora, produzem tokens. Terreno, eletricidade e espaço para servidores determinam o limite máximo da fábrica, enquanto a qualidade da arquitetura determina a produção. Jensen Huang afirmou que, no futuro, todas as empresas levarão em consideração a eficiência de suas fábricas de tokens, pois o poder computacional é receita em si.

Mais importante ainda, antes mesmo que as fábricas de IA na Terra estejam concluídas, a Nvidia já está de olho no espaço.

Os chips Thor da NVIDIA receberam certificação de resistência à radiação e estão sendo usados ​​em satélites pela primeira vez. A NVIDIA também está colaborando com parceiros para desenvolver um novo computador chamado NVIDIA Space-1 Vera Rubin, com o objetivo de construir data centers diretamente no espaço.

O espaço carece de ar, o que torna o resfriamento por convecção impossível, e a dissipação de calor representa um desafio de engenharia extremamente complexo. Jensen Huang reconheceu a complexidade do problema, mas expressou confiança de que a Nvidia possui engenheiros qualificados o suficiente para superá-lo. A expansão da capacidade computacional da Nvidia, da Terra à órbita, continua.

Chegou a hora do ChatGPT para a condução autônoma.

A inteligência artificial física é o tema mais importante para a próxima década, e Jensen Huang declarou em uma frase que o momento do ChatGPT para a direção autônoma chegou.

A plataforma RoboTaxi Ready da NVIDIA adicionou quatro parceiros de peso: BYD, Geely, Isuzu e Nissan, para desenvolver em conjunto veículos autônomos de Nível 4.

Essas quatro montadoras produzem juntas cerca de 18 milhões de veículos por ano, um volume impressionante. Somando-se a isso a Mercedes, a Toyota e a GM, que já haviam aderido, a presença da Nvidia no setor de direção autônoma agora abrange algumas das montadoras mais importantes do mundo.

A Nvidia também firmou um acordo de parceria com a Uber para implantar veículos compatíveis com o RoboTaxi em diversas cidades e conectá-los diretamente à rede global de mobilidade da Uber.

No campo da robótica industrial, a NVIDIA firmou parcerias com empresas líderes como ABB, Universal Robots e KUKA para integrar modelos físicos de IA em sistemas de simulação, impulsionando a implantação em larga escala de robôs em linhas de produção. O envolvimento da Caterpillar indica que o setor de máquinas pesadas de construção também está começando a se tornar mais inteligente.

O discurso de abertura terminou com o clássico segmento sobre robôs.

Recentemente, Olaf, de Frozen, fez aparições nos parques temáticos da Disney no exterior. Desta vez, ele também subiu ao palco da GTC 2026 com seu jeito adorável de andar, interagindo de forma animada com Jensen Huang. Seus movimentos foram naturais e suas reações, fluidas.

Em seu interior, encontra-se um computador NVIDIA Jetson, que é o cérebro de todo o sistema. Sua marcha e movimentos são todos treinados no ambiente virtual Omniverse, utilizando o motor de física Newton, desenvolvido em conjunto pela NVIDIA, Disney e Google DeepMind, e executado na plataforma NVIDIA Warp.

Foi esse sistema de simulação física que permitiu que Olaf se adaptasse completamente às leis da física antes de entrar no mundo real. Jensen Huang afirmou que, no futuro, todos os personagens dos parques da Disney possuirão inteligência real, movendo-se livremente pelo parque e interagindo genuinamente com cada visitante.

No início de seu discurso, Jensen Huang disse: "Quero lembrar a vocês que esta é uma conferência de tecnologia. Vamos falar sobre tecnologia, plataformas e, principalmente, sobre ecossistemas."

Ecossistema? Ele está sendo modesto demais; chamá-lo de império do ecossistema não seria exagero. Huang certa vez usou um bolo de cinco camadas para descrever a estrutura da indústria de IA: a camada inferior é energia e chips, acima dela estão a infraestrutura e os modelos, e no topo estão os aplicativos.

Cada camada é indispensável. Essa analogia parece descrever uma estrutura industrial com uma clara divisão do trabalho, onde cada pessoa desempenha sua função. Mas, ao observar esse bolo de baixo para cima, percebe-se que a Nvidia está presente em todas as camadas.

Desde as primeiras placas gráficas "escondidas" nos gabinetes dos computadores dos jogadores até as estruturas subjacentes que dominam os provedores globais de nuvem; dos centros de dados resistentes à radiação no espaço às bonecas robóticas que conversam e riem conosco na Disneylândia.

A Nvidia passou 20 anos construindo uma turbina eólica, e agora essa máquina se transformou em uma fábrica de produção de tokens sem fim. Nessa fábrica, poder computacional é poder, e o ecossistema é a barreira de entrada.

Enquanto todas as empresas e usuários estão ansiosos sobre como implementar a IA, Jensen Huang discretamente colocou o ingresso para a era dos Agentes na garganta de todos os servidores do mundo.

Nessa aposta no futuro da IA, a Nvidia não é apenas a banca e a jogadora, ela está comprando a mesa inteira.

Autores: Zhang Zihao, Mo Chongyu

#Siga a conta oficial do iFanr no WeChat: iFanr (ID do WeChat: ifanr), onde você encontrará conteúdo ainda mais interessante o mais breve possível.