A Micron acabou de incluir 256 GB em um módulo LPDDR5x, e os hiperescaladores podem empilhar até oito para criar enormes servidores de IA de 2 TB.


  • Micron apresenta um módulo LPDDR5x compacto de 256 GB voltado para servidores de IA
  • Oito módulos SOCAMM2 podem aumentar a capacidade de memória do servidor para massivos 2 TB
  • As cargas de trabalho de inferência de IA transferem cada vez mais os gargalos de desempenho para a capacidade de memória do sistema

Grandes modelos de linguagem (LLM) e pipelines de inferência modernos exigem pools de memória cada vez maiores, forçando os fornecedores de hardware a repensar a arquitetura de memória do servidor.

A Micron lançou agora um módulo de memória SOCAMM2 de 256 GB projetado para sistemas de data center onde capacidade, largura de banda e eficiência energética afetam o desempenho geral.



Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui