A nova técnica Engram da DeepSeek pode reduzir os custos de memória de IA, aumentar o poder de raciocínio e aliviar a pressão global de DRAM.


  • O Engram da DeepSeek separa a memória estática da computação, aumentando a eficiência em grandes modelos de IA
  • O método reduz os requisitos de memória de alta velocidade, permitindo que o DeepSeek use pesquisas de padrões
  • Engram suporta pré-busca assíncrona em múltiplas GPUs com sobrecarga mínima de desempenho

DeepSeek, em colaboração com a Universidade de Pequim, apresentou um novo método de treinamento chamado Engram, projetado para desacoplar o armazenamento de memória de processos computacionais.

Os modelos de linguagem tradicionais exigem memória de alta largura de banda para recuperação de conhecimento e computação central, criando um gargalo no desempenho e no custo.



Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui