Jensen Huang subiu ao palco da GTC 2026 em San Jose na segunda-feira, 16 de março, e disse ao mundo que a NVIDIA espera faturar “pelo menos” US$ 1 trilhão com seus chips de IA — Blackwell e Vera Rubin — até o final de 2027. Para colocar isso em perspectiva: há menos de dois anos, a projeção era de US$ 500 bilhões até 2026. O número dobrou. E Huang deixou claro que mesmo US$ 1 trilhão pode não ser suficiente para atender a demanda.
O anúncio que parou o mundo da tecnologia – NVIDIA US$ 1 trilhão IA 2027
A GTC 2026 — a maior conferência anual de desenvolvedores da NVIDIA, realizada no SAP Center em San Jose, Califórnia — começou com Jensen Huang no palco para uma apresentação de mais de duas horas e meia diante de uma plateia lotada.
No meio do keynote, Huang mencionou que em outubro de 2025 havia projetado US$ 500 bilhões em pedidos pelos chips Blackwell e Vera Rubin até 2026. Então, com a naturalidade de quem anuncia o tempo, dobrou o número: “Agora vejo pelo menos US$ 1 trilhão até 2027.”
E completou: “Tenho certeza de que a demanda por computação vai ser muito maior do que isso. Vamos ficar curtos.”
Não foi modéstia corporativa. Foi um aviso sobre a escala do que está acontecendo na infraestrutura de IA global.
Os números que tornam isso crível
A projeção de US$ 1 trilhão seria fácil de descartar como exagero de CEO se não fosse pelos números que a NVIDIA já entregou.
No fiscal 2026 — encerrado em janeiro de 2026 — a empresa registrou receita total de US$ 215,9 bilhões, crescimento de 65% em relação ao ano anterior e o maior resultado anual da história da companhia. A receita de data center sozinha atingiu US$ 62,3 bilhões no último trimestre, alta de 75% em relação ao mesmo período do ano anterior.
A empresa registrou onze trimestres consecutivos de crescimento de receita acima de 55%. Para o trimestre atual, a projeção é de aproximadamente US$ 78 bilhões — crescimento de 77% ano a ano.
Com esses números como base, a projeção de US$ 1 trilhão em pedidos acumulados até 2027 — não receita trimestral, mas pedidos totais pelos chips das duas plataformas — é ambiciosa mas não absurda.
O que são os chips que vão gerar esse dinheiro
A projeção de US$ 1 trilhão está baseada em dois produtos:
Blackwell: a plataforma atual da NVIDIA, lançada em 2025 e já em plena operação. Segundo Huang, o Grace Blackwell com NVLink é hoje o rei da inferência — entregando custo por token até dez vezes menor que as soluções anteriores. É o chip que alimenta hoje as maiores infraestruturas de IA do mundo, de OpenAI a Google, de Microsoft a Amazon.
Vera Rubin: a próxima geração, prevista para o segundo semestre de 2026. O sistema é composto por 1,3 milhão de componentes e promete dez vezes mais performance por watt em relação ao Grace Blackwell — um salto relevante numa era em que o consumo de energia é um dos principais gargalos da expansão da IA. O nome homenageia a astrônoma Vera Rubin, descobridora de evidências da matéria escura.
O ponto de inflexão: IA que finalmente trabalha
Huang dedicou parte relevante do keynote a explicar por que a demanda está explodindo agora — e não apenas crescendo de forma linear.
A explicação foi direta: o mundo da IA passou da fase de treinamento para a fase de inferência. Durante anos, o maior consumo de poder computacional estava no treinamento de modelos — o processo de ensinar a IA. Agora, com modelos capazes o suficiente para executar tarefas reais de forma autônoma, a inferência — o uso dos modelos — se tornou o novo centro gravitacional da demanda.
“Finalmente, a IA é capaz de fazer trabalho produtivo — e portanto o ponto de inflexão da inferência chegou”, disse Huang. Com isso, cada empresa que quer usar agentes de IA para automatizar processos precisa de infraestrutura de inferência — e a NVIDIA é quem vende essa infraestrutura.
Groq 3 — o novo chip que a NVIDIA apresentou
Um dos anúncios mais inesperados da GTC 2026 foi o Groq 3 LPU — o primeiro chip da startup Groq desenvolvido sob a NVIDIA, que adquiriu os principais ativos da empresa por US$ 20 bilhões em dezembro de 2025 — a maior aquisição da história da NVIDIA.
O Groq 3 é uma Language Processing Unit — um chip projetado especificamente para inferência de modelos de linguagem, com latência extremamente baixa. Está previsto para chegar ao mercado no terceiro trimestre de 2026 e complementa o portfólio da NVIDIA ao oferecer uma solução otimizada para inferência de texto em escala — algo que os GPUs tradicionais fazem bem, mas que um chip dedicado faz de forma mais eficiente.
A integração do Groq 3 ao ecossistema NVIDIA é parte da estratégia de transformar a empresa de fabricante de chips em fornecedor de infraestrutura completa de IA — da computação ao networking, do software ao hardware especializado.
Data centers no espaço — não é ficção científica
Um dos momentos mais surpreendentes do keynote foi o anúncio do Vera Rubin Space-1 — um módulo de data center orbital. A NVIDIA está desenvolvendo hardware de processamento de IA projetado para operar em órbita terrestre.
A lógica é clara: satélites e sistemas de observação da Terra geram quantidades massivas de dados que precisam ser processados em tempo real. Enviar esses dados para a Terra para processamento introduz latência e consome largura de banda. Processar diretamente em órbita resolve os dois problemas.
É um mercado ainda nascente — mas que empresas como SpaceX, Amazon e startups de observação da Terra estão desenvolvendo ativamente. A NVIDIA quer estar presente desde o início.
Veículos autônomos — nível 4 confirmado
Huang também anunciou que Nissan, BYD, Geely, Isuzu e Hyundai estão desenvolvendo veículos autônomos de nível 4 — o penúltimo nível de autonomia, onde o carro dirige sozinho em praticamente qualquer condição sem intervenção humana — usando a plataforma NVIDIA Drive Hyperion.
Isuzu e a empresa chinesa Tier IV também estão desenvolvendo ônibus autônomos usando o chip AGX Thor da NVIDIA. São projetos em escala real, com fabricantes globais — não experimentos de laboratório.
O futuro dos engenheiros — pagos em tokens de IA
Um dos trechos mais comentados do keynote foi a visão de Huang sobre o futuro do trabalho na própria NVIDIA.
O CEO disse que imagina um futuro onde cada engenheiro da empresa receberá um orçamento anual de tokens de IA — além do salário convencional. “Vou dar a eles provavelmente metade do salário em tokens para que possam ser amplificados dez vezes”, disse Huang. “Cada engenheiro precisará de um orçamento anual de tokens.”
A ideia é que engenheiros usando agentes de IA de forma intensiva podem multiplicar sua produtividade de forma que justifica o custo dos tokens como parte da remuneração. É uma visão inédita de como empresas de tecnologia podem estruturar trabalho e compensação numa era de IA agêntica.
O que isso significa para o Brasil
O impacto de US$ 1 trilhão em chips de IA não fica nos data centers dos Estados Unidos. Toda empresa brasileira que usa serviços de nuvem — AWS, Azure, Google Cloud — está indiretamente dependendo da infraestrutura que a NVIDIA fornece.
O crescimento da NVIDIA também impacta o custo de acesso a modelos de IA para desenvolvedores e empresas brasileiras. Mais capacidade de inferência a custo menor — que é o que Blackwell e Vera Rubin prometem — significa APIs de IA mais baratas, o que beneficia startups e desenvolvedores no Brasil.
Para investidores brasileiros que acompanham o setor de tecnologia, a NVIDIA já é a empresa mais valiosa do mundo e a projeção de US$ 1 trilhão em pedidos até 2027 reforça a tese de que a demanda por infraestrutura de IA ainda tem muito espaço para crescer.
Resumo dos principais anúncios da GTC 2026
FAQ
O que é a GTC 2026? É a maior conferência anual de desenvolvedores da NVIDIA, realizada em San Jose, Califórnia. Em 2026, o evento aconteceu entre os dias 16 e 21 de março e teve Jensen Huang no palco para um keynote de mais de duas horas e meia com anúncios de novos chips, parcerias e projeções de negócio.
A NVIDIA realmente vai faturar US$ 1 trilhão? A projeção de Huang é de US$ 1 trilhão em pedidos — não receita já reconhecida — pelos chips Blackwell e Vera Rubin até o final de 2027. Com base no crescimento atual da empresa e nos pedidos já confirmados, a projeção é ambiciosa mas fundamentada nos números reais da empresa.
O que é o Vera Rubin? É a próxima geração de plataforma de chips de IA da NVIDIA, sucessora do Blackwell. Promete dez vezes mais performance por watt, é composta por 1,3 milhão de componentes e está prevista para o segundo semestre de 2026.
O que é o Groq 3? É o primeiro chip desenvolvido pela Groq sob a NVIDIA — uma Language Processing Unit especializada em inferência de modelos de linguagem com latência muito baixa. Previsto para o terceiro trimestre de 2026.
O que é IA agêntica e por que importa para a NVIDIA? IA agêntica são sistemas de IA que executam tarefas de forma autônoma — pesquisando, planejando e agindo sem intervenção humana constante. É o novo paradigma de uso da IA e exige muito mais capacidade de inferência do que modelos que apenas respondem perguntas — o que aumenta diretamente a demanda pelos chips da NVIDIA.
O que é data center no espaço? A NVIDIA anunciou o Vera Rubin Space-1 — um módulo de processamento de IA projetado para operar em órbita terrestre, processando dados de satélites em tempo real sem precisar enviá-los para a Terra.
Você também pode gostar:
Como instalar o Windows 11 sem conta Microsoft e sem internet em 2026
ChatGPT ajudou a criar vacina contra câncer que reduziu tumores em cão em 75%



