
Após a queda de 3% nas ações diante da notícia de que a Meta avalia adotar os chips de inteligência artificial (IA) do Google em seus data centers, a Nvidia entrou no centro das atenções. Segundo a CNBC, o cenário reacendeu dúvidas entre investidores sobre a extensão da liderança da companhia de Jensen Huang justamente quando a disputa pela infraestrutura de IA ganha velocidade.
Em resposta pública divulgada na rede X, a Nvidia afirmou que segue “uma geração à frente da indústria”, posição que sustenta com base na versatilidade e no desempenho de suas GPUs, tecnologia que domina mais de 90% do mercado de chips para inteligência artificial, segundo analistas citados pela CNBC. A companhia reforçou ainda que continua fornecendo hardware para o Google, destacando a relação de parceria entre as duas empresas.
A movimentação ocorre em meio ao fortalecimento das unidades internas de computação do Google. As TPUs (tensor processing units), desenvolvidas pela companhia especificamente para cargas de IA, têm ganhado tração e chamaram atenção após o treinamento do Gemini 3, modelo amplamente elogiado pela comunidade técnica. Diferentemente da Nvidia, o Google não comercializa seus chips, mas os torna disponíveis via Google Cloud para tarefas corporativas.
Leia também: Loggi aposta em IA para escalar logística nacional e vencer matemática da Black Friday
Mercado mira TPUs, mas escala segue com GPUs
O relatório da CNBC aponta que o interesse das big techs em chips alternativos reforça a corrida por eficiência e custo. Enquanto a geração Blackwell da Nvidia é reconhecida pela potência, também é vista como um investimento pesado. As TPUs surgem como alternativa em determinados cenários, principalmente para clientes já integrados ao ecossistema Google.
Ainda assim, a Nvidia afirma que sua arquitetura mantém vantagens por ser mais ampla e aplicável a diferentes modelos, de startups a grandes provedores de nuvem. Em seu comunicado, a empresa argumenta que ASICs, categoria na qual as TPUs se enquadram, são projetados para funções específicas, limitando o nível de flexibilidade para operarem em diferentes estágios ou tipos de treinamento.
O Google, por sua vez, afirmou ao veículo que observa demanda crescente pelos dois tipos de hardware, tanto suas TPUs quanto as GPUs da Nvidia, e pretende continuar sustentando ambas as frentes. A colocação sinaliza que grandes clientes tendem a operar em um ambiente híbrido, combinando chips próprios e de parceiros para acomodar picos de demanda e cargas de trabalho diversas.
A CNBC destaca ainda que Jensen Huang abordou a competição das TPUs durante conferência de resultados realizada anteriormente. Segundo o executivo, o Google continua sendo um cliente relevante, e modelos como o Gemini podem rodar sobre a infraestrutura da Nvidia.
O CEO também mencionou conversas recentes com Demis Hassabis, líder do Google DeepMind, que teria reiterado a validade das chamadas scaling laws, teoria amplamente aceita no setor, segundo a qual mais dados e mais chips tendem a gerar modelos mais poderosos. Para Huang, essa dinâmica deve impulsionar ainda mais a demanda por GPUs e sistemas integrados.
Siga o IT Forum no LinkedIn e fique por dentro de todas as notícias!

