Jensen Huang responde a tudo: Carpinteiros e encanadores deveriam ser os mais entusiasmados com a IA.

Se tivéssemos que encontrar alguém para explicar como ocorreu essa explosão da IA, Jensen Huang seria, sem dúvida, o candidato mais adequado.

Há trinta anos, ele fundou a Nvidia, apostando em processadores gráficos e forçando a implementação da tecnologia CUDA em placas de vídeo para jogos. Seu valor de mercado despencou de US$ 8 bilhões para US$ 1,5 bilhão, antes de levar uma década para se recuperar. Enquanto todos ainda debatiam se os chips de inferência permaneceriam um mercado de baixo custo, ele já estava projetando arquiteturas de rack para a era dos agentes inteligentes.

Esse tipo de previsão claramente não é apenas sorte, mas também algo indissociável de algo que ele vem fazendo há décadas: contar a todos sobre o futuro antes que todos acreditem nele.

Hoje, o renomado apresentador de podcast Lex Fridman lançou uma entrevista aprofundada de duas horas com Jensen Huang.

O diálogo abordou a vantagem competitiva do CUDA, o ecossistema tecnológico chinês, o futuro da programação, o DLSS5 e até mesmo a consciência e a morte. Esta é a manifestação pública mais completa de Jensen Huang nos últimos tempos, e também o registro mais próximo de sua verdadeira linha de pensamento até o momento.

Segue em anexo a transcrição da entrevista de Huang Renxun.  https://lexfridman.com/jensen-huang-transcript

Uma pergunta, 60 especialistas presentes ao mesmo tempo – é assim que a Nvidia realiza suas reuniões.

No início da entrevista, Fridman destacou que a NVIDIA expandiu seu foco de design do nível de chip único para o nível de rack, abrangendo GPUs, CPUs, memória, redes, NVLink, interconexões de fibra e cobre, fonte de alimentação, refrigeração, software e o próprio rack. Ele perguntou a Jensen Huang: Em um projeto colaborativo com tantas variáveis, qual é a parte mais desafiadora?

Jensen Huang explicou inicialmente por que o design colaborativo definitivo é inevitável do ponto de vista da lógica da engenharia.

Ele afirmou que a raiz do problema reside na escala: ao distribuir uma tarefa por 10.000 computadores, espera-se obter um aumento de velocidade muito superior à soma linear, como um aumento de um milhão de vezes, enquanto simplesmente aumentar o número de computadores traz apenas benefícios lineares.

Essa é a restrição da Lei de Amdahl, que significa que se a computação representa apenas 50% da carga de trabalho total, mesmo que a velocidade de computação seja aumentada para o infinito, a velocidade geral só poderá ser aumentada em duas vezes.

"Quando você distribui o problema, tudo se torna um gargalo. A CPU é um problema, a GPU é um problema, a rede é um problema, o switch é um problema. Na nossa escala, a computação distribuída exige lidar com todos os aspectos simultaneamente."

Em termos organizacionais, Huang revelou que se reporta diretamente a mais de 60 pessoas, incluindo especialistas de ponta em praticamente todas as disciplinas técnicas: memória, CPU, óptica, arquitetura de GPU, algoritmos e design — ninguém está ausente. Ele abandonou deliberadamente o sistema de reporte individual, optando por reunir todos simultaneamente para discutir qualquer questão específica.

"Como trabalhamos com um design extremamente colaborativo, nunca há uma discussão com apenas uma pessoa presente. Apresentamos um problema e todos trabalham juntos para resolvê-lo. Quando discutimos refrigeração, os especialistas em redes estão ouvindo; quando discutimos alimentação elétrica, os especialistas em memória estão ouvindo. Se alguém não estiver prestando atenção em algo em que deveria estar focado, eu chamo a atenção dessa pessoa diretamente."

Ele comparou a estrutura corporativa a um sistema operacional, acreditando que a estrutura organizacional de uma empresa deveria refletir diretamente seu ambiente e os produtos que produz, em vez de usar um organograma uniforme do tipo "hambúrguer" ou "flexível", ou um organograma semelhante ao de uma montadora de automóveis.

Colocar a tecnologia CUDA em uma placa de vídeo para jogos foi a decisão mais difícil, mas também a mais crucial.

Ao discutir a evolução estratégica da NVIDIA, Jensen Huang também descreveu em detalhes o caminho de transformação dos aceleradores gráficos para as plataformas de computação.

Ele afirmou que a Nvidia era originalmente uma empresa de aceleradores focada em processamento gráfico. A vantagem da especialização é a otimização extrema, mas o problema é que os limites do mercado são naturalmente restritos, e o tamanho do mercado determina diretamente a capacidade de investir em P&D, o que, por sua vez, determina quanta influência uma empresa pode exercer na área da computação.

Portanto, a Nvidia teve que expandir seus horizontes e se voltar para a computação de propósito geral, mas frequentemente existe uma contradição inerente entre computação de propósito geral e computação especializada: quanto mais próxima da computação de propósito geral, mais suas capacidades de aceleração especializadas são diluídas.

"Forcei a união desses dois termos inerentemente contraditórios. A empresa deve trilhar esse caminho extremamente estreito passo a passo, expandindo os limites da computação e, ao mesmo tempo, preservando suas capacidades especializadas mais importantes."

O primeiro passo foi o shader de pixel programável, marcando o início da programabilidade. O segundo passo foi a adição de operações de ponto flutuante FP32 compatíveis com o padrão IEEE ao shader. Isso atraiu pesquisadores que anteriormente trabalhavam com processamento de fluxos e computação de fluxo de dados em CPUs. Eles descobriram que as GPUs ofereciam densidade computacional extremamente alta, mantendo-se compatíveis com a lógica de software existente. Isso levou diretamente ao desenvolvimento da linguagem de programação Cg e, posteriormente, do CUDA.

Levar o CUDA para as placas gráficas GeForce para o consumidor foi uma das decisões mais críticas e dolorosas da história.

Jensen Huang afirmou que o valor de uma plataforma computacional depende inteiramente de sua base instalada, e não da elegância de sua arquitetura. Ele citou o x86 como exemplo: historicamente, é a arquitetura mais criticada, muito menos elegante do que as arquiteturas RISC meticulosamente projetadas pelos principais cientistas da computação da mesma época; contudo, o x86 sobreviveu enquanto a maioria das arquiteturas RISC fracassou. A razão é simples: base instalada.

"Naquela época, a GeForce enviava milhões de placas gráficas todos os anos. Nós dizíamos que, independentemente de os usuários utilizarem CUDA ou não, nós o instalaríamos em todos os PCs, usando isso como ponto de partida para cultivar a base instalada. Ao mesmo tempo, íamos às universidades escrever livros didáticos, oferecer cursos e promover o CUDA em todos os lugares. Naqueles dias, os PCs eram a principal plataforma de computação e não existia computação em nuvem. Estávamos essencialmente colocando a supercomputação nas mãos de cada estudante e pesquisador. Um dia, uma surpresa aconteceria."

O custo foi devastador. O CUDA aumentou drasticamente o custo das placas GeForce, eliminando completamente a margem bruta da Nvidia. A margem bruta da empresa já era de apenas 35%, e com um aumento de 50% nos custos, todos os lucros evaporaram. Sua capitalização de mercado despencou de aproximadamente US$ 8 bilhões para US$ 1,5 bilhão, permanecendo em patamar mínimo por um período considerável.

"Mas sempre tivemos CUDA, sempre o executamos em placas GeForce. A Nvidia é a casa da GeForce, e a GeForce tornou o CUDA acessível a todos. Pesquisadores e cientistas descobriram o CUDA nas universidades porque eram jogadores; eles construíram seus próprios computadores e clusters usando componentes de PC."

Mais tarde, isso se tornou a infraestrutura da revolução do aprendizado profundo. Sobre como tomar decisões tão arriscadas, Jensen Huang disse que seu processo decisório começa com a curiosidade, seguida pelo raciocínio. Quando o sistema de raciocínio apresenta claramente em sua mente "isso definitivamente acontecerá", ele começa a acreditar nisso e, uma vez que acredita, ele vai lá e faz acontecer.

Mas, mais importante ainda, ele gerencia as crenças coletivas de uma forma que nunca espera até o dia da decisão para anunciá-la. Em vez disso, ele constrói gradualmente a base cognitiva para o conselho de administração, a equipe de gestão, os funcionários e os parceiros por meio de cada mensagem externa, marco de engenharia e nova descoberta do setor.

"Quando chegar o dia do anúncio, espero que a reação de todos seja: 'Jensen, por que você só está dizendo isso agora?' Foi o caso com a aquisição da Mellanox, foi o caso com nossa aposta total em aprendizado profundo e agora é o caso com a Groq. Venho preparando o terreno há dois anos e meio."

Ele descreveu a conferência GTC como uma ferramenta para moldar as percepções futuras em todo o setor, não apenas para os funcionários, mas também para os parceiros e todo o ecossistema. "Não fabricamos computadores, nem construímos nuvens. Somos uma empresa de plataforma de computação; ninguém pode comprar nossos produtos diretamente, mas abrimos nossa plataforma para todos os níveis. Antes que meu produto esteja pronto, primeiro preciso convencer a todos de que ele está a caminho."

Ilya disse que os dados estavam esgotados, e Huang Renxun disse que ele estava indo na direção errada.

Para as Leis de Escala, Jensen Huang propôs uma estrutura sistemática que inclui quatro camadas interligadas.

A primeira regra é a lei de escala do pré-treinamento. Quanto maior o modelo e mais dados de treinamento, mais inteligente a IA.

Quando Ilya Sutskever afirmou que "os dados de pré-treinamento estão esgotados", a indústria entrou em pânico, acreditando que a IA havia atingido seu limite. Jensen Huang argumenta que essa preocupação é equivocada: embora os dados gerados por humanos sejam de fato limitados, a proporção de dados sintéticos continuará a aumentar, o que não é surpreendente, já que o conhecimento humano é inerentemente "sintético", circulando, sendo reinterpretado, recriado e reconsumido entre as pessoas. A IA agora é capaz de gerar quantidades massivas de dados sintéticos de treinamento com base em dados do mundo real; o gargalo do pré-treinamento passou do volume de dados para o poder computacional.

O segundo princípio é a lei de expansão pós-treinamento. Ainda há amplo espaço para refinar as capacidades do modelo por meio do ajuste fino das instruções, aprendizado por reforço e outros métodos.

A terceira é a lei de expansão em tempo de teste, que se refere à entrada computacional durante a fase de inferência.

Jensen Huang afirmou que muitas pessoas inicialmente previram que a inferência seria "simples", acreditando que os chips de inferência só precisariam ser pequenos e baratos, eliminando completamente a necessidade de produtos caros e complexos como os da Nvidia, e que o mercado de inferência se tornaria um mercado de baixo custo e padronizado. "Isso não faz sentido lógico. O pré-treinamento envolve memorização e indução, é como ler; a inferência envolve pensar, raciocinar, planejar, pesquisar, tentar e decompor problemas desconhecidos. Como o pensamento pode ser computacionalmente leve?" Ele provou estar certo; as demandas computacionais durante os testes superaram em muito as expectativas do mercado.

O quarto princípio é a lei da expansão de agentes. Um modelo de linguagem de grande porte torna-se um agente, que consulta bancos de dados, utiliza ferramentas e atribui subtarefas durante os testes, enquanto simultaneamente gera um grande número de subagentes. "A maneira mais simples de escalar a Nvidia é contratar mais pessoas, mas a taxa de divisão de agentes é muito mais rápida do que a contratação de pessoas." Esses agentes acumulam uma riqueza de experiência e dados valiosos durante a operação, cuja essência retroalimenta o pré-treinamento, é refinada pelo pós-treinamento e aprimorada ainda mais durante os testes, formando um ciclo virtuoso completo.

Em última análise, a expansão da inteligência depende de uma coisa: poder computacional.

Em relação a como prever a direção dos modelos de IA no nível de projeto de hardware, Huang Renxun admitiu que essa é uma das partes mais difíceis, porque a arquitetura do modelo de IA é iterada a cada seis meses, enquanto o ciclo de iteração da arquitetura de sistema e hardware é de três anos.

A estratégia de resposta da NVIDIA inclui três aspectos: conduzir pesquisas básicas e aplicadas internamente, treinar modelos internamente para obter experiência em primeira mão; como a única empresa de plataforma no mundo que colabora simultaneamente com todas as empresas de IA, ela ouve atentamente os desafios na vanguarda do setor; e manter a flexibilidade arquitetônica para que o CUDA possa evoluir com o algoritmo.

Ele citou o exemplo dos Modelos Especialistas Híbridos (MoE): Foi precisamente porque a NVIDIA antecipou a ascensão do MoE que expandiu o NVLink de 8 para 72 vias, permitindo que um modelo completo com 4 trilhões ou até mesmo 10 trilhões de parâmetros fosse executado em um único domínio de computação, comportando-se como uma GPU gigante.

A mudança mais significativa no rack Vera Rubin de primeira geração em comparação com o rack Grace Blackwell é a adição de um acelerador de armazenamento, a introdução de uma CPU Vera totalmente nova e um rack Rock projetado especificamente para tarefas de agentes. Isso ocorre porque os agentes precisam acessar frequentemente o sistema de arquivos, chamar ferramentas e executar código durante o trabalho, o que representa uma carga de trabalho completamente diferente da simples execução de inferência LLM.

"Por que projetamos essa geração de arquitetura antes do surgimento do Claude Code, Codex e OpenClaw? Porque a inferência não precisa esperar o lançamento de um produto específico. Basta sentar e pensar com cuidado: o que um modelo de linguagem de grande porte precisa fazer para se tornar um verdadeiro trabalhador digital? Ele precisa acessar o sistema de arquivos para obter dados reais, precisa ser capaz de pesquisar informações online, precisa saber usar ferramentas e precisa ser capaz de derivar subtarefas. Esses não são conceitos místicos, mas lógica básica."

Ele também usou um experimento mental vívido: imagine que o agente de IA mais poderoso daqui a dez anos seja um robô humanoide que entra na sua casa para fazer tarefas domésticas. É mais provável que ele use ferramentas que você já tem em casa, como um forno de micro-ondas, ou que seus dedos se transformem em um martelo, um bisturi ou um gerador de micro-ondas a qualquer momento? A resposta é claramente a primeira opção. "O que estou descrevendo são, na verdade, quase todas as características principais do OpenClaw."

Elon Musk aos olhos de Huang: Uma pessoa que se coloca na posição de prioridade máxima de todos.

Fridman mencionou que Jensen Huang elogiou muito Musk por construir o supercomputador Colossus em Memphis em quatro meses, que agora possui 200.000 GPUs. Huang detalhou a filosofia de engenharia e gestão que observou no projeto.

Ele disse que Musk é alguém capaz de manter um conhecimento profundo em múltiplas áreas avançadas simultaneamente, além de ser um excelente pensador sistêmico. Ele tem o hábito de fazer três perguntas sobre tudo: Isso é necessário? É necessário fazer isso? É necessário levar tanto tempo? Após fazer essas perguntas camada por camada, o sistema é reduzido à sua forma mínima necessária, enquanto as capacidades são totalmente preservadas.

"Ele também comparecia pessoalmente ao local onde o problema ocorria. Se houvesse um problema, ele ia até o local e 'me mostrava o problema'. Essa abordagem quebra muito a inércia do 'sempre fazemos assim'. Todo fornecedor tem muitos clientes e projetos, e a abordagem dele é se tornar a prioridade máxima em todos os projetos, e ele faz isso demonstrando pessoalmente, não apenas falando sobre o assunto."

Ele descreveu um detalhe que Fridman também havia vivenciado: Musk se agachava ao lado do rack e trabalhava com os engenheiros para descobrir como conectar e desconectar os cabos, a fim de reduzir a probabilidade de erros. "A intuição que você desenvolve a partir de cada detalhe permite que você veja tanto ineficiências em nível micro quanto problemas sistêmicos em nível macro, e então você está qualificado para dizer: 'Vamos fazer isso de uma maneira completamente diferente'."

Por que a comunidade tecnológica chinesa favorece naturalmente o código aberto?

Ao falar sobre sua recente visita à China, Jensen Huang afirmou que aproximadamente 50% dos pesquisadores de IA no mundo são chineses, e a maioria ainda trabalha na China. O surgimento da indústria de tecnologia chinesa coincidiu com a era da internet móvel, permitindo que o país entrasse na competição global por meio do software como um grande diferencial.

Ele acredita que existem várias razões estruturais pelas quais o ecossistema tecnológico da China consegue produzir continuamente um grande número de empresas de ponta.

Em primeiro lugar, destaca-se a intensidade da concorrência. A China não é um grande mercado unificado, mas sim um sistema competitivo composto por inúmeras províncias e cidades. Isso resultou em um número impressionante de concorrentes em cada setor. Isso vale tanto para veículos elétricos quanto para empresas de inteligência artificial. No fim, apenas as empresas mais excepcionais sobreviverão a essa competição acirrada.

Em segundo lugar, há a cultura de abertura e compartilhamento. A comunidade de engenharia chinesa depende muito de redes interpessoais dentro de escolas e empresas; colegas de classe são irmãos para a vida toda e amigos são colegas de trabalho. Huang Renxun afirmou que os engenheiros chineses priorizam a família em primeiro lugar, os amigos em segundo e a empresa em terceiro. Essa ordem determina diretamente sua atitude em relação ao conhecimento.

Os engenheiros deles têm irmãos ou amigos que trabalham na empresa; são todos colegas de turma. Na China, "colega de turma" significa irmandade para a vida toda. Portanto, eles compartilham conhecimento com extrema rapidez; não há motivo para esconder sua tecnologia — eles simplesmente a disponibilizam em código aberto.

Em terceiro lugar, existe uma cultura social que valoriza a engenharia. Este é um país que reverencia a construção.

Ele então estendeu isso à estratégia de código aberto da NVIDIA, mencionando especificamente o Nemotron 3, um modelo especialista híbrido ponderado aberto com 120 bilhões de parâmetros, cuja arquitetura combina Transformer e State Space Model (SSM).

A NVIDIA tem três motivações para promover o código aberto: primeiro, o treinamento de seus próprios modelos faz parte do projeto colaborativo definitivo, o que permite à equipe de hardware entender diretamente a direção da arquitetura do modelo; segundo, modelos proprietários e modelos de código aberto são ambos necessários, e o código aberto é uma condição necessária para que a IA se dissemine verdadeiramente por todos os setores, todos os países e todos os pesquisadores e estudantes.

Em terceiro lugar, a IA é muito mais do que apenas linguagem. Áreas como biologia, física, meteorologia e dinâmica de fluidos exigem modelos especialmente treinados. A NVIDIA quer garantir que todos os setores tenham acesso a modelos fundamentais de IA de classe mundial.

43.000 indivíduos e milhões de desenvolvedores constroem coletivamente a vantagem competitiva da Nvidia.

Ao ser questionado sobre as vantagens competitivas mais importantes da Nvidia, Jensen Huang apresentou uma classificação clara.

O primeiro é o número de instalações do CUDA.

Ele disse que mesmo que alguém tivesse criado uma arquitetura alternativa tecnicamente superior há vinte anos, como GUDA ou TUDA, provavelmente teria fracassado. Isso porque o sucesso ou o fracasso de uma arquitetura nunca é determinado apenas pela tecnologia, mas sim por quantos desenvolvedores criam seus softwares nessa plataforma.

O status atual do CUDA é resultado de décadas de dedicação contínua de 43.000 funcionários da NVIDIA e da confiança de milhões de desenvolvedores que basearam seus softwares nessa plataforma.

Ele também enfatizou a importância da velocidade de execução da NVIDIA: qualquer desenvolvedor que escolher CUDA pode quase certamente esperar um desempenho dez vezes melhor em seis meses; seu software pode alcançar centenas de milhões de dispositivos, abrangendo todos os principais provedores de serviços em nuvem, todos os principais setores e todos os principais países; e ele está confiante de que a NVIDIA continuará a manter e aprimorar o CUDA no futuro próximo. "Considerando todos esses pontos, se eu fosse um desenvolvedor, escolheria o CUDA em primeiro lugar e investiria a maior parte dos meus recursos nele."

O segundo diferencial competitivo reside na abrangência horizontal do ecossistema. A Nvidia integra verticalmente sistemas extremamente complexos, mas, ao mesmo tempo, abre o acesso horizontal às plataformas de computação de todas as empresas, desde o Google Cloud, Amazon AWS e Microsoft Azure, até empresas de computação emergentes como CoreWeave e Nscale, passando pela supercomputação em empresas farmacêuticas, até dispositivos de borda em estações base de telecomunicações, automóveis, robôs e satélites.

Uma única arquitetura abrange praticamente todos os setores industriais do mundo.

Quanto à possibilidade da Nvidia atingir uma capitalização de mercado de US$ 10 trilhões, as previsões de Jensen Huang partem de duas mudanças fundamentais: a transição da computação da recuperação para a geração, o que significa um salto na demanda por poder computacional; e a transformação dos computadores de unidades de armazenamento em fábricas de produção, ou seja, de centros de custo para centros de lucro diretamente ligados à receita corporativa. Ele prevê que o crescimento do PIB global irá acelerar e que a proporção da computação no PIB será mais de 100 vezes maior do que no passado.

Ele mencionou que a trajetória de receita de US$ 3 trilhões da Nvidia é "claro que possível" em sua opinião, e que não existem leis físicas que limitem a concretização dessa cifra. Mais importante ainda, o crescimento da Nvidia não depende da conquista de participação de mercado dos concorrentes existentes, mas sim de um mercado completamente novo que cresce praticamente do zero.

"Quando a Nvidia era uma empresa de 10 bilhões de dólares, não dava para dizer: 'Se eles conseguissem 10% do mercado de alguém, poderiam crescer tanto'. A imaginação deles precisava ser construída do zero. Mas eu tenho bastante tempo, e cada GTC torna isso cada vez mais real."

Ao discutir agentes inteligentes, ele comparou o OpenClaw ao "iPhone dos tokens": "Os consumidores podem usá-lo diretamente. É um produto do nível do iPhone; é o aplicativo que mais cresceu na história, disparou, é isso."

A raiva dos jogadores em relação à falta de coerência na IA é, na verdade, um reflexo disso.

Jensen Huang afirmou que GeForce continua sendo a estratégia de marketing de marca mais importante da Nvidia: as pessoas conhecem a Nvidia por meio de jogos quando são adolescentes e, naturalmente, se voltam para o CUDA e ferramentas profissionais quando entram na faculdade e em suas carreiras.

Quando questionado sobre o jogo mais importante da história, ele deu duas respostas: em termos de impacto cultural e na indústria, foi Doom, que transformou o PC de uma ferramenta de escritório em um dispositivo de entretenimento doméstico; em termos de tecnologia de jogos, foi Virtua Fighter. Sua obra-prima mais recente foi Cyberpunk 2077, que implementou totalmente a renderização por ray tracing.

Ao discutir a controvérsia em torno do DLSS 5, ele reconheceu a aversão ao efeito de "IA borrada" e admitiu que se tratava de uma questão estética genuína.

No entanto, ele explicou que o DLSS 5 opera sob rígidas restrições de dados geométricos 3D, garantindo que cada quadro seja completamente fiel à estrutura espacial e ao estilo de textura definidos pelo artista, aprimorando em vez de sobrescrevendo. "Os jogadores acreditam erroneamente que o DLSS é usado para pós-processamento no jogo final. Ele está integrado ao processo criativo; o artista decide se o utiliza ou não." O sistema também é totalmente aberto, permitindo que os estúdios treinem modelos de forma independente e especifiquem qualquer estilo, como desenho animado ou aquarela.

Ele então fez uma observação em um nível mais macro: a sensibilidade dos jogadores à imprecisão da IA ​​ilustra precisamente que o que realmente importa para os humanos são as marcas imperfeitas deixadas pelos criadores. "Enquanto a IA for uma ferramenta para auxiliar os artistas, ela é boa."

Ele também mencionou o shader de pele de dispersão subsuperficial da NVIDIA para desenvolvedores de jogos. Essa tecnologia simula o fenômeno físico da dispersão da luz após penetrar nas camadas superficiais da pele, dando aos personagens do jogo uma textura translúcida mais realista. "Essas são ferramentas; cabe aos artistas decidir como usá-las. Nós apenas fornecemos o conjunto de ferramentas."

Inteligência Artificial Geral (AGI), o Futuro da Programação e o Lugar da Humanidade

Sobre a questão de definir AGI (Inteligência Artificial Geral), Fridman usou "ser capaz de criar e operar uma empresa de tecnologia com valor de mercado superior a um bilhão de dólares americanos, partindo do zero" como padrão de teste. A resposta de Huang Renxun foi: Acredito que a IA já atingiu esse patamar.

Ele prevê uma IA criando um aplicativo que atraia bilhões de usuários em um curto período, o comercialize e depois desapareça. Isso não é fundamentalmente diferente dos sites virais efêmeros da era da internet, cuja complexidade técnica é muito menor do que a que o OpenClaw consegue gerar hoje. "Não sei exatamente o que será, mas também não previ nenhuma dessas empresas na era da internet." Ele também enfatizou que a probabilidade de 100.000 agentes de IA construírem uma Nvidia em operação contínua é zero, mas criar um aplicativo viral efêmero e lucrar com ele é totalmente possível, e isso já está acontecendo.

Em relação ao futuro da programação, Jensen Huang acredita que a própria definição de programação precisa ser reescrita. A essência da programação é a especificação — dizer a um computador o que construir. Sob essa definição, o número de pessoas capazes de fazer isso aumentará de 30 milhões para 1 bilhão. Todo carpinteiro, encanador e contador se tornará um inovador em seu setor, porque a IA lhes permitirá expressar suas intenções em linguagem natural e traduzi-las em produtos tangíveis. "Se eu fosse carpinteiro e visse IA, ficaria muito animado. Se eu fosse encanador, ficaria completamente louco."

Ele usou o exemplo dos radiologistas para abordar as preocupações de que "a IA eliminará profissões": a visão computacional atingiu níveis sobre-humanos por volta de 2019, levando a previsões generalizadas de que os radiologistas se tornariam obsoletos. No entanto, todas as plataformas de radiologia integraram IA, e o número de radiologistas não só não diminuiu como aumentou; agora há até mesmo uma escassez global de radiologistas. A razão é simples: uma leitura de imagens mais rápida significa que mais imagens podem ser analisadas, mais pacientes podem ser atendidos, a receita dos hospitais aumenta e mais radiologistas são necessários.

"Esse alerta foi longe demais e afastou muita gente que deveria ter entrado na área, o que é um prejuízo real. O número de engenheiros de software na Nvidia só vai aumentar, não diminuir. O objetivo profissional deles é resolver problemas, e cada componente da resolução de problemas — avaliação de resultados, trabalho em equipe, diagnóstico de problemas, inovação e conexão de diferentes áreas — não vai desaparecer."

O colapso no trabalho é o melhor resultado possível.

Quando perguntado se já havia pensado em sua própria morte, a resposta de Huang Jen-hsun foi muito sincera.

"Eu realmente não quero morrer. Tenho uma família maravilhosa e um trabalho muito importante. Esta não é apenas uma 'experiência única na vida', é uma experiência única na vida para toda a civilização humana, e eu estou nela. A Nvidia é uma das empresas de tecnologia mais importantes da história, e eu levo isso muito a sério."

Sua resposta à questão do planejamento de sucessão foi bastante inesperada: ele disse que "não acredita em planejamento de sucessão", mas o motivo era justamente porque ele havia considerado seriamente o assunto. Se você realmente se importa com o destino da empresa depois que você sair, então o que você deve fazer hoje é transmitir todo o conhecimento, as percepções e os julgamentos que você aprendeu, compreendeu e acumulou a todos ao seu redor com a maior frequência possível.

"Toda reunião é uma reunião de raciocínio. Tudo o que aprendo não fica na minha mesa por mais de um segundo; imediatamente aponta para alguém: 'Vá estudar isso, é incrível, você vai querer entender'. Estou constantemente capacitando todos ao meu redor a aprimorarem suas habilidades."

Ele disse que o resultado desejado era desmaiar no trabalho, e instantaneamente, sem um processo longo e doloroso.

Em relação às esperanças para os próximos 100 anos da humanidade, ele disse que sempre teve grande fé na bondade da natureza humana. Embora tenha se decepcionado ocasionalmente, os resultados provaram que ele estava certo repetidas vezes, e muitas vezes superaram as expectativas.

"Tantos problemas que queremos resolver, tantas coisas que queremos construir, tantas boas ações que queremos realizar estão se tornando alcançáveis ​​em nossas vidas. Erradicar doenças é uma expectativa razoável. Reduzir significativamente a poluição é uma expectativa razoável. Como tudo isso não seria inspirador?"

#Siga a conta oficial do iFanr no WeChat: iFanr (ID do WeChat: ifanr), onde você encontrará conteúdo ainda mais interessante o mais breve possível.