- Os servidores físicos da StorageReview calcularam 314 trilhões de números sem infraestrutura de nuvem distribuída
- Todo o cálculo foi realizado continuamente por 110 dias sem interrupção
- O uso de energia caiu significativamente em comparação com logs Pi baseados em cluster
Uma nova referência em computação numérica de grande escala foi estabelecida com o cálculo de 314 biliões de dígitos num único sistema local.
A corrida foi concluída pela StorageReview, superando os esforços anteriores baseados em nuvem, incluindo a estimativa do Google Cloud de 100 trilhões de números até 2022.
Ao contrário das abordagens de hiperescala que dependiam de recursos distribuídos massivos, esse recorde foi alcançado em um servidor físico usando opções de hardware e software rigorosamente controladas.
Tempo de execução e estabilidade do sistema
A contagem foi consistentemente concluída em 110 dias, significativamente mais curto do que os aproximadamente 225 dias exigidos pelos registos anteriores em grande escala, embora esse esforço anterior tenha produzido menos números.
O funcionamento ininterrupto foi atribuído à estabilidade do sistema operacional e à atividade limitada em segundo plano
Também depende de uma topologia NUMA balanceada e de um ajuste cuidadoso de memória e armazenamento projetado para corresponder ao comportamento do aplicativo y-cruncher.
A carga de trabalho foi tratada menos como uma demonstração e mais como um teste de estresse estendido de sistemas de nível de produção.
No centro do esforço estava um sistema Dell PowerEdge R7725 equipado com dois processadores AMD EPYC 9965 com 384 núcleos de CPU, juntamente com 1,5 TB de memória DDR5.
O armazenamento consistia em 61,44 TB de unidades Micron 6550 Ion NVMe, fornecendo aproximadamente 2,1 PB de capacidade.
34 dessas unidades foram alocadas para o espaço de trabalho do y-cruncher no layout JBOD, e as unidades restantes formaram um volume RAID de software para proteger a saída final.
Essa configuração priorizou o desempenho e a eficiência energética no tempo de computação em detrimento da resiliência geral dos dados.
A carga de trabalho numérica gerou atividade significativa no disco, incluindo aproximadamente 132 PB de leituras lógicas e 112 PB de gravações lógicas durante a execução.
O pico de uso do disco lógico atingiu cerca de 1,43 PiB, enquanto o ponto de verificação mais alto excedeu 774 TiB.
As métricas de desgaste para SSDs registraram cerca de 7,3 PB por unidade, para um total de cerca de 249 PB em dispositivos swap.
Os benchmarks internos mostraram mais que o dobro de leitura e gravação sequencial em comparação com a plataforma anterior de 202 trilhões de dígitos.
Para esta configuração, o consumo de energia foi de cerca de 1.600 watts, para um consumo total de aproximadamente 4.305 kWh, ou calculado em 13,70 kWh por trilhão.
Este número é muito inferior às estimativas baseadas no registo do cluster de 300 biliões de dígitos, que consumiu mais de 33.000 kWh.
Os resultados sugerem que, para determinadas cargas de trabalho, os servidores e estações de trabalho são cuidadosamente ajustados ele pode efetivamente contornar a infraestrutura em nuvem.
Esta avaliação, no entanto, aplica-se estritamente a esta classe de cálculos e não se estende automaticamente a todos os usos científicos ou comerciais.
Siga o TechRadar no Google Notícias e adicione-nos como sua fonte padrão para receber notícias, opiniões e opiniões de nossos especialistas em feeds. Certifique-se de clicar no botão Continuar!
E é claro que você também pode Siga o TechRadar no TikTok para receber notícias, análises, unboxings de vídeos e receber atualizações regulares nossas WhatsApp também









