Nvidia anunció que los principales fabricantes de computadoras de Taiwán lanzarán la primera ola de sistemas impulsados por el superchip de CPU Nvidia Grace y el superchip Grace Hopper para una amplia gama de cargas de trabajo que abarcan digital twins, IA, computación de alto rendimiento, gráficos en la nube y juegos.
Se espera que docenas de modelos de servidores de ASUS, Foxconn Industrial Internet, Gigabyte, QCT, Supermicro y Wiwynn estén disponibles a partir del primer semestre de 2023. Los sistemas impulsados por Grace se unirán a x86 y otros servidores basados en Arm para ofrecer a los clientes una amplia gama de opciones para lograr un alto rendimiento y eficiencia en sus data centers.
Los próximos servidores se basan en cuatro nuevos diseños de sistemas con el superchip de CPU Grace y el superchip Grace Hopper, que Nvidia anunció en sus dos conferencias GTC más recientes. Los diseños de formato 2U proporcionan los planos y las placas base de servidores para que los fabricantes de diseños y de equipos originales lancen rápidamente los sistemas al mercado para los juegos en la nube Nvidia CGX, los digital twins Nvidia OVX y las plataformas de IA y HPC Nvidia HGX.
Potenciar las cargas de trabajo modernas
Las dos tecnologías de superchips Nvidia Grace permiten una amplia gama de cargas de trabajo de computación intensiva en una multitud de arquitecturas de sistemas.
- El superchip de CPU Grace cuenta con dos chips de CPU, conectados de forma coherente a través de una interconexión NVLink-C2C, con hasta 144 núcleos Arm V9 de alto rendimiento con extensiones vectoriales escalables y un subsistema de memoria de 1 terabyte por segundo.
- El diseño revolucionario proporciona el mayor rendimiento y el doble de ancho de banda de memoria y eficiencia energética de los principales procesadores de servidores de la actualidad para abordar las aplicaciones más exigentes de HPC, análisis de datos, digital twins, juegos en la nube y computación de hiperescala.
- El superchip Grace Hopper combina una GPU Nvidia Hopper con una CPU Nvidia Grace mediante NVLink-C2C en un módulo integrado que se diseñó para abordar las aplicaciones de HPC y de IA de gran escala. Mediante la interconexión NVLink-C2C, la CPU Grace transfiere los datos a la GPU Hopper 15 veces más rápido que las CPU tradicionales.
Amplia cartera de servidores Grace para IA, HPC, digital twins y juegos en la nube.
La cartera de diseño para servidores de superchips de CPU Grace y superchips Grace Hopper incluye sistemas disponibles en placas base únicas con configuraciones de una, dos y cuatro vías disponibles en cuatro diseños específicos para cargas de trabajo, que los fabricantes de servidores pueden personalizar según las necesidades del cliente:
- Los sistemas Nvidia HGX Grace Hopper para el entrenamiento de IA, la inferencia y la HPC están disponibles con el superchip Grace Hopper y las DPU Nvidia BlueField-3.
- Los sistemas Nvidia HGX Grace para HPC y la supercomputación cuentan con el diseño de solo CPU con el superchip de CPU Grace y BlueField-3.
- Los sistemas Nvidia OVX para digital twins y cargas de trabajo de colaboración cuentan con el superchip de CPU Grace, BlueField-3 y las GPU de Nvidia
- Los sistemas Nvidia CGX para juegos y gráficos en la nube cuentan con el superchip de CPU Grace, BlueField-3 y las GPU Nvidia A16.
Nvidia extiende su programa de sistemas certificados a servidores que utilizan el superchip de CPU Grace y el superchip Grace Hopper, además de las CPU x86. Se espera que las primeras certificaciones de servidores OEM estén disponibles poco después de que se distribuyan en los sistemas de socios.
Software compatible
La cartera de servidores Grace está optimizada para las ricas pilas de software de computación de Nvidia, incluidas Nvidia HPC, Nvidia AI, Omniverse y Nvidia RTX.
Deja un comentario