Início ANDROID Por que o chip de IA personalizado do Google está sacudindo a...

Por que o chip de IA personalizado do Google está sacudindo a indústria de tecnologia

20
0

Ironwood é a mais nova unidade de processamento de tensores do Google

A posição da Nvidia como fornecedor dominante de chips de IA pode ser ameaçada por chips personalizados pioneiros do Google, com relatórios sugerindo que as empresas como Meta E Antrópico quer gastar bilhões de dólares na unidade de processamento de tensores do Google.

O que é TPU?

O sucesso da indústria da inteligência artificial baseia-se em grande parte nas unidades de processamento gráfico (GPUs), um tipo de chip de computador que pode realizar muitos cálculos paralelos ao mesmo tempo, em vez de um após o outro, como as unidades de processamento de computador (CPUs) que alimentam a maioria dos computadores.

As GPUs foram originalmente desenvolvidas para ajudar com computação gráfica, como o nome sugere, e jogos. “Se eu tenho muitos pixels em um espaço e preciso fazer uma rotação para calcular uma nova visão da câmera, essa é uma operação que pode ser feita em paralelo, para muitos pixels diferentes”, disse Francesco Conti na Universidade de Bolonha, na Itália.

Esta capacidade de realizar cálculos em paralelo é útil para treinar e executar modelos de IA, que muitas vezes utilizam cálculos envolvendo grandes grades de números realizados ao mesmo tempo, chamados de multiplicação de matrizes. “As GPUs são uma arquitetura muito geral, mas são adequadas para aplicações que apresentam um alto grau de paralelismo”, disse Conti.

No entanto, como não foi originalmente projetado com IA em mente, pode haver ineficiências na forma como a GPU traduz os cálculos realizados no chip. A unidade de processamento de tensores (TPU), originalmente desenvolvida pelo Google em 2016, foi projetada com base apenas na multiplicação de matrizes, disse Conti, que é o principal cálculo necessário para treinar e executar grandes modelos de IA.

Este ano, o Google lançou A sétima geração de TPU é chamada Ironwoodque suporta muitos dos modelos de IA da empresa, como modelagem de proteínas Gemini e AlphaFold.

As TPUs são muito melhores que as GPUs para IA?

Tecnologicamente, o TPU é mais um subconjunto da GPU do que um chip completamente diferente, disse ele Simon McIntosh-Smith na Universidade de Bristol, Inglaterra. “Eles se concentram nas partes que as GPUs fazem, mais especificamente voltadas para treinamento e inferência para IA, mas na verdade são, em alguns aspectos, mais semelhantes às GPUs do que você imagina.” Mas como as TPUs são projetadas com aplicações específicas de IA em mente, elas podem ser muito mais eficientes para esse trabalho e podem economizar dezenas ou centenas de milhões de dólares, disse ele.

No entanto, esta especialização também tem desvantagens e pode tornar a TPU inflexível se o modelo de IA mudar significativamente entre gerações, disse Conti. “Se você não tem flexibilidade em (TPUs), você terá que fazer (cálculos) nas CPUs de seus nós no data center, e isso vai te deixar muito lento”, disse Conti.

Uma vantagem que as GPUs Nvidia normalmente têm é a disponibilidade de software simples que pode ajudar os designers de IA a executar seu código em chips Nvidia. Isso é diferente do TPU quando apareceu pela primeira vez, mas o chip agora está em um estágio mais fácil de usar, disse Conti. “Com a TPU, agora você pode fazer a mesma coisa (como a GPU)”, disse ele. “Agora que você ativou, fica claro que a disponibilidade é um fator importante.”

Quem constrói TPU?

Embora o Google tenha sido o primeiro a lançar TPUs, muitas das maiores empresas de IA (conhecidas como hyperscalers), bem como startups menores, começaram agora a desenvolver suas próprias TPUs personalizadas, incluindo a Amazon, que usa seus próprios chips Trainium para treinar seus modelos de IA.

“A maioria dos hiperscaladores tem seus próprios programas internos, e isso ocorre em parte porque as GPUs se tornaram muito caras à medida que a demanda supera a oferta, e pode ser mais barato projetá-las e construí-las você mesmo”, disse McIntosh-Smith.

Como a TPU impactará a indústria de IA?

O Google vem desenvolvendo seus TPUs há mais de uma década, mas tem usado esses chips principalmente para seus próprios modelos de IA. O que parece estar mudando agora é que outras grandes empresas, como Meta e Anthropic, estão fazendo grandes compras de poder computacional das TPUs do Google. “Nunca ouvimos falar de uma grande rotatividade de clientes, e é provavelmente isso que está começando a acontecer agora”, disse McIntosh-Smith. “Eles são bastante maduros e há muitos deles.”

Além de criar mais opções para as grandes empresas, faz mais sentido financeiro que elas diversifiquem, disse ele. “Isso pode até significar que você conseguirá um acordo melhor com a Nvidia no futuro”, disse ele.

Tópico:

Source link