O CEO da Nvidia, Jensen Huang, disse na segunda-feira que o chip de próxima geração da empresa está em “plena produção”, dizendo que fornecerá cinco vezes a computação de inteligência artificial dos chips anteriores, servindo chatbots e outros aplicativos de IA.
Em discurso na Consumer Electronics Show, em Las Vegas, o líder da empresa mais valiosa do mundo revelou novos detalhes sobre seus chips, que chegarão ainda este ano e que um executivo da Nvidia disse à Reuters que já haviam sido testados em laboratórios por empresas de IA, enquanto a Nvidia busca aumentar a concorrência de rivais e de seus clientes.
A plataforma Vera Rubin, concluída em seis parcelas separadas pela Nvidia, deverá estrear ainda este ano com um dispositivo principal contendo 72 das principais placas gráficas da empresa e 36 novos processadores centrais. Huang mostrou como eles podem ser montados em “cápsulas” com mais de 1.000 chips Rubin.
Para alcançar os novos resultados, no entanto, Huang disse que Rubin utiliza um tipo de dados proprietários que a empresa espera que sejam utilizados por uma indústria mais ampla.
“Portanto, fomos capazes de dar um passo gigantesco no desempenho, embora tivéssemos apenas 1,6 vezes o número de transistores”, disse Huang.
Embora a Nvidia ainda domine o mercado de modelos alimentados por IA, ela enfrenta muito mais concorrência – de rivais tradicionais como a Micro Devices, bem como de clientes como o Google, da Alphabet – na entrega dos resultados desses modelos a centenas de milhões de usuários de chatbots e outras tecnologias.
Grande parte da palestra de Huang se concentrou em quão bem os novos chips funcionariam para essa tarefa, incluindo uma nova tecnologia de armazenamento chamada “armazenamento de memória de contexto”, destinada a ajudar os chatbots a fornecer respostas mais rápidas a longas perguntas e conversas quando usadas por milhões de usuários ao mesmo tempo.
A Nvidia também está substituindo a nova propagação de rede por um novo tipo de conexão chamada óptica co-packed. A tecnologia, fundamental para conectar milhares de dispositivos em um só, compete com ofertas da Broadcom e da Cisco Systems.
Em outros anúncios, Huang destacou um novo software que pode ajudar os carros autônomos a tomar decisões sobre qual caminho seguir – e deixar um rastro de papel para os mecânicos usarem mais tarde. Uma pesquisa sobre o software da Nvidia, chamado Alpamayo, no ano passado mostrou que Huang disse que ele seria divulgado de forma mais ampla na segunda-feira, junto com dados de desempenho usados para ajudar as montadoras a fazer avaliações.
“Não apenas abrimos os modelos, mas também abrimos o código-fonte dos dados que usamos para executar esses modelos, porque é a única maneira de realmente acreditar como os modelos foram feitos”, disse Huang no estádio em Las Vegas.
No mês passado, a Nvidia contratou talentos e tecnologia de chips da startup Groq, incluindo executivos que foram fundamentais para ajudar a Alphabet Google a projetar seu chip de IA. Embora o Google seja um grande cliente da Nvidia, seus chips emergiram como uma das maiores ameaças da Nvidia, já que o Google está trabalhando com Meta Platforms e outras para minar a proteção de IA da Nvidia.
Ao mesmo tempo, a Nvidia conseguiu mostrar que os seus produtos mais recentes podem fabricar chips maiores como o H200, que o presidente Trump permitiu que chegasse à China. A Reuters informou que o chip, que foi um antecessor do atual chip principal “Blackwell” da Nvidia, estava em alta demanda na China, o que alarmou os falcões da China em todo o espectro político dos EUA.



