- O superchip de 1700 W da Meta oferece 30 PFLOPs e 512 GB de memória HBM
- MTIA 450 e 500 priorizam a inferência em relação às cargas de trabalho de pré-treinamento
- As futuras gerações de MTIA suportam cargas de trabalho de inferência e classificação GenAI
A Meta está aprimorando sua infraestrutura de IA com um portfólio de chips MTIA personalizados projetados especificamente para cargas de trabalho de inferência em seus aplicativos.
A empresa está desenvolvendo um superchip de 1700 W capaz de 30 PFLOPs e 512 GB HBM, integrado na mesma infraestrutura MTIA para lidar com tarefas de inferência em escala.
Curiosamente, esse feito está sendo alcançado sem seus amigos: nem Nvidia, AMD, Intel ou ARM.
O artigo continua abaixo
De acordo com Meta, centenas de milhares de chips MTIA já estão implantados em produção, suportando cargas de trabalho como classificação, recomendação e veiculação de anúncios.
Esses chips fazem parte de um sistema full-stack otimizado para requisitos específicos do Meta, alcançando maior eficiência computacional para sua carga de trabalho do que hardware de uso geral.
Ao contrário de outros hiperscaladores como Google, AWS, Microsoft e Apple, Meta segue uma estratégia de silício totalmente personalizada.
Esse design prioriza a eficiência em relação ao uso geral, resultando em uma execução mais econômica do que as GPUs ou CPUs convencionais.
Ele mantém compatibilidade com softwares padrão da indústria, como PyTorch, vLLM e Triton.
O roteiro MTIA da Meta prevê quatro novas gerações nos próximos dois anos, incluindo o MTIA 300, que está atualmente em produção para classificação e recomendações.
As gerações futuras – MTIA 400, 450 e 500 – expandirão o suporte para cargas de trabalho de inferência GenAI, com designs capazes de se adaptarem à infraestrutura de rack existente.
A Meta enfatiza o desenvolvimento rápido e iterativo, lançando novos chips aproximadamente a cada seis meses por meio de designs modulares e reutilizáveis.
O design modular permite que novos chips se encaixem em sistemas de rack existentes, reduzindo o atrito na implantação e acelerando o tempo de produção.
Esta abordagem permite que a empresa adote técnicas emergentes de IA e melhorias de hardware mais rapidamente do que os concorrentes, que normalmente duram um ou dois anos por geração.
Ao contrário da maioria dos chips de IA líderes que priorizam o pré-treinamento GenAI em grande escala e depois se adaptam à inferência, os MTIA 450 e 500 da Meta concentram-se primeiro nas cargas de trabalho de inferência.
Os chips também suportam outras tarefas, incluindo treinamento de classificação e recomendação ou treinamento GenAI, mas mantêm seu design ajustado ao crescimento esperado na demanda de inferência.
O design de nível de sistema do Meta está em conformidade com os padrões do Open Compute Project, permitindo uma implantação sem atritos em data centers, ao mesmo tempo que mantém alta eficiência computacional.
A empresa admite que nenhum chip pode lidar com todo o espectro de suas cargas de trabalho de IA.
É por isso que a MTIA está lançando múltiplas gerações com silício complementar de outros fornecedores.
A estratégia visa equilibrar flexibilidade e desempenho, ao mesmo tempo que acelera a inovação para a superinteligência pessoal.
Siga o TechRadar no Google Notícias e adicione-nos como sua fonte padrão para receber notícias, opiniões e opiniões de nossos especialistas em feeds. Certifique-se de clicar no botão Continuar!
E é claro que você também pode Siga o TechRadar no TikTok para receber novidades, análises, unboxings em formato de vídeo e receber atualizações constantes nossas WhatsApp também







