impulsora de una nueva era de la computación, acaba de anunciar la llegada de la plataforma Nvidia Blackwell, que permitirá a organizaciones de todo el mundo crear y ejecutar IA generativa en tiempo real sobre grandes modelos de lenguaje (LLM) de billones de parámetros con hasta 25 veces menos coste y consumo de energía que su predecesora.
La arquitectura de GPU Blackwell incorpora seis tecnologías de aceleración computacional que contribuirán a abrir nuevos caminos en el procesamiento de datos, la simulación en ingeniería, la automatización del diseño electrónico, el diseño de fármacos asistido por ordenador, la computación cuántica y la IA generativa, todas ellas oportunidades emergentes para Nvidia.
Entre las muchas organizaciones que se espera que adopten Blackwell se encuentran Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla y xAI.
«Llevamos tres décadas persiguiendo la aceleración computacional con el objetivo de posibilitar avances transformadores como el aprendizaje profundo y la IA”, dijo Jensen Huang, fundador y CEO de Nvidia. «La IA generativa es la tecnología que define nuestro tiempo. Blackwell es el motor de esta nueva revolución industrial. Trabajando con las empresas más dinámicas del mundo, haremos realidad la promesa de la IA para todas las industrias».
Nombrado con el nombre de David Harold Blackwell – matemático especializado en teoría de juegos y estadística y primer académico negro admitido en la Academia Nacional de Ciencias – la nueva arquitectura sucede a la arquitectura Nvidia Hopper, lanzada hace dos años.
Innovaciones de Blackwell para impulsar la computación acelerada y la IA generativa
Las seis tecnologías revolucionarias de Blackwell, que juntas permiten el entrenamiento de la IA en tiempo real y la inferencia LLM para modelos que escalan hasta 10 billones de parámetros, incluyen:
- El chip más potente del mundo – Equipadas con 208.000 millones de transistores, las GPU de arquitectura Blackwell se fabrican mediante un proceso TSMC 4NP personalizado, con dos chips de GPU conectados por un enlace chip a chip de 10 TB/segundo delimitado por dos retículos, formando una única GPU unificada.
- Motor Transformer de segunda generación: impulsado por el nuevo soporte de escalado de microtensores y los algoritmos avanzados de gestión del rango dinámico de Nvidia integrados en los frameworks Nvidia TensorRT – LLM y NeMo Megatron, Blackwell admitirá el doble de tamaños de computación y modelos con nuevas funciones de inferencia de IA en coma flotante de 4 bits.
- NVLink de quinta generación: para acelerar el rendimiento de los modelos de IA con varios billones de parámetros y una mezcla de expertos, la última iteración de Nvidia NVLink ofrece una innovadora tasa de transferencia bidireccional de 1,8 TB/s por GPU, lo que garantiza una comunicación continua a alta velocidad entre hasta 576 GPU para los LLM más complejos.
- Motor RAS: las GPU con tecnología Blackwell incluyen un motor dedicado que proporciona fiabilidad, disponibilidad y facilidad de mantenimiento. Además, la arquitectura Blackwell añade funciones a nivel de chip para utilizar el mantenimiento preventivo basado en IA para ejecutar diagnósticos y predecir problemas de fiabilidad. Esto maximiza el tiempo de actividad del sistema y mejora la capacidad de recuperación para que las implantaciones de IA a gran escala funcionen sin interrupciones durante semanas o incluso meses seguidos y reduzcan los costes operativos.
- IA segura: las funciones avanzadas de computación confidencial protegen los modelos de IA y los datos de los clientes sin comprometer el rendimiento, con compatibilidad con los nuevos protocolos de cifrado de interfaz nativa, esenciales para sectores sensibles a la privacidad como la sanidad y los servicios financieros.
- Motor de descompresión: Un motor de descompresión dedicado admite los formatos más recientes, lo que acelera las consultas a bases de datos para ofrecer el máximo rendimiento en análisis de datos y ciencia de datos. En los próximos años, el procesamiento de datos, en el que las empresas gastan decenas de miles de millones de dólares al año, se acelerará cada vez más gracias a la GPU.
«Nvidia ha ido actualizándose progresivamente y el lanzamiento de esta nueva arquitectura demuestra claramente cómo la compañía refuerza continuamente su posición para afrontar los retos del futuro. No sólo seguimos, sino que lideramos el ritmo de las demandas del mercado, garantizando así su relevancia e influencia en el panorama tecnológico», subraya Marcio Aguiar, director de la división Enterprise de Nvidia para Latinoamérica.
Un superchip enorme
El superchip Nvidia GB200 Grace Blackwell conecta dos GPU Nvidia B200 Tensor Core a la CPU Nvidia Grace a través de una interconexión chip a chip NVLink a 900 GB/s de muy bajo consumo.
Para obtener el máximo rendimiento de la IA, los sistemas GB200 pueden conectarse a las también anunciadas plataformas Nvidia Quantum-X800 InfiniBand y Spectrum™-X800 Ethernet, que ofrecen redes avanzadas a velocidades de hasta 800 Gb/s.
El GB200 es un componente clave del Nvidia GB200 NVL72, un sistema multinodo a escala de rack con refrigeración líquida para las cargas de trabajo más exigentes. Combina 36 Grace Blackwell Superchips, que incluyen 72 GPU Blackwell y 36 CPU Grace interconectadas mediante NVLink de quinta generación. Además, el GB200 NVL72 incluye unidades de procesamiento de datos Nvidia BlueField-3 para permitir la aceleración de la red en la nube, el almacenamiento combinable, la seguridad de confianza cero y la elasticidad del cálculo en la GPU en nubes de IA a hiperescala. La GB200 NVL72 ofrece un aumento del rendimiento de hasta 30 veces en comparación con el mismo número de GPU Nvidia H100 Tensor Core para cargas de trabajo de inferencia LLM y reduce el coste y el consumo de energía hasta 25 veces.
La plataforma actúa como una única GPU con 1,4 exaflops de rendimiento de IA y 30 TB de memoria rápida, y es la base del último DGX SuperPOD.
Nvidia ofrece la HGX B200, una placa de servidor que conecta ocho GPU B200 a través de NVLink para dar soporte a plataformas de IA generativa basadas en x86. La HGX B200 admite velocidades de red de hasta 400 Gb/s a través de las plataformas de red Nvidia Quantum-2 InfiniBand y Spectrum-X Ethernet.
Red mundial de socios de Blackwell
Los productos basados en Blackwell estarán disponibles a través de los partners a partir de fin de este año.
AWS, Google Cloud, Microsoft Azure y Oracle Cloud Infrastructure serán algunos de los primeros proveedores de servicios en la nube en ofrecer instancias con tecnología Blackwell, al igual que Nvidia.
Las empresas del programa Cloud Partner Applied Digital, CoreWeave, Crusoe, IBM Cloud y Lambda. También ofrecerán servicios e infraestructuras en la nube basados en Blackwell empresas como Indosat Ooredoo Hutchinson, Nebius,, Nexgen Cloud, Oracle EU Sovereign Cloud, Oracle US, UK and Australian Government Clouds, Scaleway, Singtel, Taiga Cloud de Northern Data Group, Shakti Cloud de Yotta Data Services y YTL Power International.
El GB200 también estará disponible en Nvidia DGX Cloud, una plataforma de IA diseñada en colaboración con los principales proveedores de servicios en la nube que ofrece a los desarrolladores empresariales acceso dedicado a la infraestructura y el software necesarios para crear e implantar modelos generativos avanzados de IA. AWS, Google Cloud y Oracle Cloud Infrastructure tienen previsto alojar nuevas instancias basadas en Nvidia Grace Blackwell a finales de este año.
Se espera que Cisco, Dell, Hewlett Packard Enterprise, Lenovo y Supermicro suministren una amplia gama de servidores basados en productos Blackwell, al igual que Aivres, ASRock Rackv, ASUS, Eviden, Foxconn, GIGABYTE, Inventec, Pegatron, QCT, Wistron, Wiwynn y ZT Systems.
Además, una creciente red de fabricantes de software, entre ellos Ansys, Cadence y Synopsys – líderes mundiales en simulación de ingeniería – utilizarán procesadores basados en Blackwell para acelerar su software de diseño y simulación de sistemas y piezas eléctricas, mecánicas y de fabricación. Sus clientes podrán utilizar la IA generativa y la aceleración computacional para sacar productos al mercado más rápidamente, a menor coste y con mayor eficiencia energética.Soporte de software Nvidia
La cartera de productos Blackwell está respaldada por Nvidia AI Enterprise, el sistema operativo integral para la IA de nivel de producción. Nvidia AI Enterprise incluye los microservicios de inferencia Nvidia NIM – también anunciados – así como frameworks, librerías y herramientas de IA que las empresas pueden implantar en nubes, centros de datos y estaciones de trabajo acelerados por Nvidia.
Deja un comentario