- HPE enviará 72 racks de GPU a nivel mundial con aceleradores AMD Instinct de próxima generación
- Las CPU Venice combinadas con GPU ofrecen rendimiento de IA a exaescala por rack
- El Helios se basa en refrigeración líquida y un chasis de doble ancho para la gestión térmica.
HPE ha anunciado planes para integrar la arquitectura de IA a escala de rack Helios de AMD en su gama de productos a partir de 2026.
La asociación brinda a Helios su primer socio OEM importante y posiciona a HPE para enviar bastidores completos de IA de 72 GPU construidos alrededor de los aceleradores Instinct MI455X de próxima generación de AMD.
Estos bastidores se combinarán con CPU EPYC Venice y utilizarán una estructura de escalamiento basada en Ethernet desarrollada con Broadcom.
Objetivos de rendimiento y diseño de bastidores
La medida crea un camino comercial claro para Helios y pone la arquitectura en competencia directa con las plataformas de escala de rack de Nvidia que ya están en servicio.
El diseño de referencia de Helios se basa en el estándar Open Rack Wide de Meta.
Utiliza un chasis refrigerado por líquido de doble ancho para albergar las GPU de la serie MI450, las CPU Venice y el hardware de red Pensando.
AMD apunta a FP4 2,9 exaFLOPS de computación por rack con la generación MI455X, junto con 31 TB de memoria HBM4.
El sistema presenta cada GPU como parte de un único módulo, lo que permite que las cargas de trabajo abarquen todos los aceleradores sin cuellos de botella locales.
Un conmutador HPE Juniper compatible con Ultra Accelerator Link a través de Ethernet completa la interconexión de GPU de gran ancho de banda.
Proporciona una alternativa al enfoque centrado en NVLink de Nvidia.
El Centro de Computación de Alto Rendimiento de Stuttgart ha seleccionado la plataforma Cray GX5000 de HPE para su próximo sistema insignia llamado Herder.
Herder utilizará GPU MI430X y CPU Venice en blades con refrigeración líquida directa y reemplazará el sistema Hunter actual en 2027.
HPE señaló que el calor residual de los racks GX5000 calentará los edificios del campus, lo que demuestra consideraciones ambientales además de los objetivos de rendimiento.
AMD y HPE planean hacer que los sistemas basados en Helios estén disponibles a nivel mundial el próximo año, ampliando el acceso al hardware de IA a escala de rack para instituciones de investigación y empresas.
Helios utiliza una estructura Ethernet para conectar GPU y CPU, lo que contrasta con el enfoque NVLink de Nvidia.
El uso de hardware alineado con Ultra Accelerator Link Ethernet y Ultra Ethernet Consortium admite diseños escalables dentro de un marco de estándares abiertos.
Si bien este enfoque, en teoría, permite comparar los recuentos de GPU con otros racks de IA de alta gama, el rendimiento en cargas de trabajo sostenidas de múltiples nodos aún no se ha probado.
Sin embargo, depender de una única capa Ethernet puede provocar limitaciones de latencia o ancho de banda en aplicaciones del mundo real.
Dicho esto, estas especificaciones no predicen el rendimiento en el mundo real, que dependerá de una refrigeración eficaz, una gestión del tráfico de red y una optimización del software.
A través de Hardware de Tom
Siga TechRadar en Google News y agréganos como tu fuente predeterminada para recibir noticias, puntos de vista y opiniones de nuestros expertos en feeds. ¡Asegúrate de presionar el botón Continuar!
Y por supuesto que tú también puedes Siga TechRadar en TikTok para recibir noticias, reseñas, unboxings en forma de video y recibir actualizaciones constantes de nuestra parte WhatsApp también









