Nvidia Hopper está en plena producción

Nvidia anunció que la GPU Nvidia H100 Tensor Core estará en plena producción. En octubre, los socios tecnológicos globales planean implementar la primera ola de productos y servicios basados en la innovadora arquitectura Nvidia Pascal.

El modelo H100, que se presentó en abril, cuenta con 80,000 millones de transistores y se beneficia de diferentes avances tecnológicos. Entre ellos, se encuentran el nuevo y potente Motor Transformer y la interconexión Nvidia NVLink para acelerar los modelos de IA más grandes, como los sistemas de recomendación avanzados y los grandes modelos de idiomas, e impulsar innovaciones en campos como la IA conversacional y el descubrimiento de fármacos.

Además de la arquitectura Hopper y el Motor Transformer, otras innovaciones clave potencian la GPU H100 para dar el próximo enorme salto en la plataforma de data center de computación acelerada de Nvidia, que incluye múltiples instancias de GPU de segunda generación, computación confidencial, instrucciones DE Nvidia NVLink y DPX de cuarta generación.

Ahora se incluye una licencia de cinco años para la suite de software Nvidia AI Enterprise con H100 para servidores convencionales. Esto optimiza el desarrollo y la implementación de workflows de IA y garantiza que las organizaciones tengan acceso a los frameworks y herramientas de IA necesarios para desarrollar chatbots de IA, motores de recomendación, IA de visión y más.

Lanzamiento global de Hopper

H100 permite a las empresas reducir los costos para implementar la IA, a fin de ofrecer el mismo rendimiento de IA con una eficiencia energética 3.5 veces más grande y costo total de propiedad 3 veces menor, mientras usan 5 veces menos nodos de servidor en comparación con la generación anterior.

Para los clientes que quieren probar inmediatamente la nueva tecnología, Nvidia anunció que H100 en los servidores Dell PowerEdge ya está disponible en Nvidia LaunchPad, que proporciona laboratorios prácticos gratuitos para brindar a las empresas acceso al hardware más reciente y el software de IA de Nvidia.

Los clientes también pueden comenzar a encargar los sistemas Nvidia DGX H100, que incluyen ocho GPU H100 y ofrecen 32 petaflops de rendimiento con precisión FP8. El software Nvidia Base Command y Nvidia AI Enterprise potencian cada sistema DGX, lo que permite implementaciones desde un solo nodo hasta un Nvidia DGX SuperPOD, que admiten el desarrollo avanzado de IA de grandes modelos de idiomas y otras enormes cargas de trabajo.

Se espera que los sistemas con H100 de los principales fabricantes de computadoras del mundo comenzarán a distribuirse en las próximas semanas. Habrá más de cincuenta modelos de servidores en el mercado para finales del año y docenas más en el primer semestre de 2023. Los socios que desarrollan sistemas incluyen Atos, Cisco, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Lenovo y Supermicro.

Además, algunas de las principales instituciones de educación superior e investigación del mundo usarán las H100 para potenciar sus supercomputadoras de próxima generación. Entre ellos se encuentran el Centro de Supercomputación de Barcelona, el Laboratorio Nacional de Los Alamos, el Centro Nacional de Supercomputación de Suiza (CSCS), el Centro de Computación Avanzada de Texas y la Universidad de Tsukuba.

H100 llega al cloud

Amazon Web Services, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure serán las primeras empresas en implementar instancias basadas en H100 en el cloud a partir del próximo año.

Soporte de software de Nvidia

La avanzada tecnología del Motor Transformer de H100 permite a las empresas desarrollar rápidamente grandes modelos de idiomas con un mayor nivel de precisión. A medida que estos modelos continúan creciendo en escala, también lo hace la complejidad, que a veces requiere meses para entrenarse.

Para hacer frente a esto, los frameworks de deep learning y los grandes modelos de idiomas se están optimizando en H100, incluidos Nvidia NeMo Megatron, Microsoft DeepSpeed, Google JAX, PyTorch, TensorFlow y XLA. Estos frameworks combinados con la arquitectura Hopper acelerarán significativamente el rendimiento de la IA para ayudar a entrenar grandes modelos de idiomas en días u horas.

Fuente: Comunicado

Deja un comentario