Skip to main content

Jensen Huang, CEO da Nvidia

A Nvidia anunciou que sua próxima geração de chips voltados à inteligência artificial (IA) já entrou em produção total. A informação foi apresentada pelo CEO da empresa, Jensen Huang, durante a CES, realizada em Las Vegas, nos Estados Unidos. Segundo o executivo, os novos processadores podem entregar até cinco vezes mais capacidade de computação para aplicações de IA em comparação à geração anterior, especialmente em usos como chatbots e sistemas generativos.

O principal destaque é a plataforma chamada Vera Rubin, composta por seis chips distintos desenvolvidos pela empresa. A configuração de referência inclui servidores com 72 unidades de processamento gráfico (GPUs) e 36 processadores centrais (CPUs). De acordo com a Nvidia, esses sistemas já estão sendo testados em seus laboratórios por empresas que atuam no desenvolvimento e na operação de soluções de IA, antecipando a adoção comercial ao longo deste ano.

Durante a apresentação, segundo informações da Reuters, Huang mostrou como os chips podem ser interligados em estruturas modulares chamadas de “pods”, capazes de reunir mais de mil unidades Rubin em um único conjunto. Essa arquitetura foi projetada para aumentar significativamente a eficiência na geração de “tokens”, unidades básicas usadas por modelos de linguagem e outros sistemas de IA para processar e produzir respostas. A companhia estima ganhos de até dez vezes nesse tipo de operação.

Parte do avanço de desempenho, segundo a Nvidia, vem do uso de um formato proprietário de dados. A empresa afirma que esse modelo permitiu um salto expressivo de performance mesmo com um aumento relativamente modesto no número de transistores, cerca de 1,6 vez em relação à geração anterior. A expectativa é que esse padrão possa ser adotado mais amplamente pela indústria, ampliando sua relevância além do ecossistema da própria Nvidia.

Apesar de manter a liderança no mercado de chips para treinamento de modelos de IA, a empresa enfrenta um ambiente competitivo mais intenso na etapa de inferência, quando os modelos já treinados são usados por milhões de usuários. Nesse cenário, a Nvidia disputa espaço com rivais tradicionais como a Advanced Micro Devices (AMD) e também com clientes que passaram a desenvolver seus próprios chips, como o Google, da Alphabet.

Nova camada de armazenamento da Nvidia

Para reforçar sua proposta nesse segmento, a companhia anunciou uma nova camada de armazenamento denominada “context memory storage”. A tecnologia foi desenhada para permitir respostas mais rápidas e consistentes em interações longas, um ponto crítico para chatbots corporativos e assistentes baseados em IA generativa.

Outro anúncio relevante envolve a área de redes. A Nvidia apresentou uma nova geração de switches que utiliza conexões por óptica coempacotada, tecnologia considerada estratégica para interligar milhares de máquinas em grandes ambientes de data center. Essa abordagem coloca a empresa em competição direta com fornecedores como Broadcom e Cisco, que também disputam o mercado de infraestrutura de alto desempenho para IA.

A companhia informou ainda que a CoreWeave será uma das primeiras a operar sistemas baseados na plataforma Vera Rubin. A Nvidia também espera que grandes provedores de nuvem, como Microsoft, Oracle, Amazon e Google, adotem a nova geração de chips em seus data centers.

Em software, Huang destacou avanços voltados ao setor automotivo. Um dos projetos citados foi o Alpamayo, sistema que auxilia veículos autônomos na tomada de decisões e gera registros detalhados para posterior análise por engenheiros. A Nvidia informou que pretende disponibilizar não apenas os modelos, mas também os dados usados no treinamento, como forma de ampliar a transparência e a confiança nas aplicações.

Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!