- O superchip de 1700W da Meta fornece 30PFLOPs e 512GB de memória HBM.
- MTIA 450 e 500 priorizam a inferência em relação às cargas de trabalho de pré-treinamento.
- As futuras gerações de MTIA darão suporte à inferência GenAI e à classificação de cargas de trabalho.
A Meta está avançando na infraestrutura de IA com um portfólio de chips MTIA personalizados projetados especificamente para cargas de trabalho de inferência em aplicativos.
A empresa está desenvolvendo um superchip de 1700 W que suporta 30 PFLOPs e 512 GB HBM integrados na mesma infraestrutura MTIA para lidar com cargas de trabalho de inferência em grande escala.
Curiosamente, esse feito também é realizado sem amigos. NVIDIA, AMD, Intel, ARM.
O artigo continua abaixo
De acordo com metaCentenas de milhares de chips MTIA já estão implantados em produção, suportando cargas de trabalho de classificação, recomendação e veiculação de anúncios.
O chip faz parte de um sistema full-stack otimizado para os requisitos específicos do Meta, alcançando maior eficiência computacional do que o hardware comum para as cargas de trabalho pretendidas.
Ao contrário de outros hiperescaladores como Google, AWS, Microsoft e Apple, a Meta segue uma estratégia de silício totalmente personalizada.
Esse design prioriza a eficiência em relação ao uso de uso geral, permitindo que você execute inferências de maneira mais econômica do que GPUs ou CPUs convencionais.
Mantém a compatibilidade com software padrão da indústria, como PyTorch, vLLM e Triton.
O roteiro MTIA da Meta prevê quatro novas gerações de chips nos próximos dois anos, com o MTIA 300 atualmente em produção para classificações e recomendações.
As gerações futuras, MTIA 400, 450 e 500, expandirão o suporte para cargas de trabalho de inferência GenAI com designs que se adaptam à infraestrutura de rack existente.
A Meta enfatiza o desenvolvimento rápido e iterativo, lançando novos chips aproximadamente a cada seis meses por meio de designs modulares e reutilizáveis.
O design modular permite que novos chips sejam inseridos em sistemas de rack existentes, reduzindo o atrito na implantação e acelerando os tempos de produção.
Esta abordagem permite que a empresa adote novas tecnologias de IA e melhorias de hardware mais rapidamente do que os concorrentes, o que normalmente leva de um a dois anos por geração.
Ao contrário da maioria dos chips de IA convencionais que priorizam o pré-treinamento GenAI em grande escala e se adaptam à inferência posteriormente, os MTIA 450 e 500 da Meta concentram-se primeiro nas cargas de trabalho de inferência.
O chip também pode suportar outras tarefas, incluindo treinamento de classificação e recomendação ou treinamento GenAI, mas seu design é adaptado ao aumento esperado nas demandas de inferência.
O design de nível de sistema do Meta é consistente com os padrões do Open Compute Project, permitindo uma implantação perfeita em data centers, mantendo ao mesmo tempo alta eficiência computacional.
A empresa reconhece que nenhum chip pode lidar com toda a gama de cargas de trabalho de IA.
É por isso que implementamos múltiplas gerações de MTIA com silício complementar de diferentes fornecedores.
Esta estratégia visa acelerar a inovação em direção à superinteligência pessoal, ao mesmo tempo que equilibra flexibilidade e desempenho.
Siga o TechRadar no Google Notícias e Adicione-nos como fonte preferencial Receba notícias, análises e opiniões de especialistas em seu feed. Certifique-se de clicar no botão seguir!
Claro que você também pode Siga o TechRadar no TikTok Confira novidades, análises, unboxings em formato de vídeo e receba atualizações regulares. WhatsApp fazer.



