NVIDIA GB200 NVL72 contribuciones de diseño y NVIDIA Spectrum-X para ayudar a acelerar la próxima revolución industrial
Anuncio en el OCP Global Summit
OCP Global Summit— Para impulsar el desarrollo de tecnologías de centros de datos abiertas, eficientes y escalables, NVIDIA anunció que ha contribuido elementos fundamentales de su plataforma de computación acelerada NVIDIA Blackwell al Open Compute Project (OCP) y ha ampliado el apoyo de NVIDIA Spectrum-X™ a los estándares de OCP.
En el OCP Global Summit, NVIDIA compartió partes clave del Sistema NVIDIA GB200 NVL72 con la comunidad OCP, incluyendo la arquitectura del rack, los mecanismos de la bandeja de computación y conmutación, las especificaciones de refrigeración líquida y el entorno térmico, así como el cartucho de cable NVIDIA NVLink™ para apoyar una mayor densidad de computación y ancho de banda de red.
NVIDIA ya había realizado varias contribuciones oficiales a OCP a través de múltiples generaciones de hardware, incluida la especificación de diseño de la placa base NVIDIA HGX™ H100, para ofrecer al ecosistema una mayor variedad de opciones de los fabricantes de computadoras del mundo y expandir la adopción de la IA.
Además, la expansión de la alineación de la plataforma de red Ethernet NVIDIA Spectrum-X con las especificaciones desarrolladas por la comunidad OCP permite a las empresas desbloquear el potencial de rendimiento de las fábricas de IA que despliegan equipos reconocidos por OCP, mientras preservan sus inversiones y mantienen consistencia en el software.
“Aprovechando una década de colaboración con OCP, NVIDIA trabaja junto a líderes de la industria para dar forma a especificaciones y diseños que puedan ser adoptados ampliamente en todos los centros de datos,” afirmó Jensen Huang, fundador y CEO de NVIDIA. “Al avanzar en estándares abiertos, estamos ayudando a las organizaciones de todo el mundo a aprovechar el potencial completo de la computación acelerada y crear las fábricas de IA del futuro.”
Plataforma de computación acelerada para la próxima revolución industrial
La plataforma de computación acelerada de NVIDIA fue diseñada para potenciar una nueva era de la IA.
El GB200 NVL72 se basa en la arquitectura modular NVIDIA MGX™, que permite a los fabricantes de computadoras construir rápidamente una amplia variedad de diseños de infraestructura de centros de datos de manera rentable.
El sistema refrigerado por líquido conecta 36 CPUs NVIDIA Grace™ y 72 GPUs NVIDIA Blackwell en un diseño a escala de rack. Con un dominio NVIDIA NVLink de 72 GPUs, actúa como una única y masiva GPU y ofrece 30 veces más rapidez en la inferencia de modelos de lenguaje de un billón de parámetros en tiempo real en comparación con la GPU NVIDIA H100 Tensor Core.
La plataforma de red Ethernet NVIDIA Spectrum-X, que incluye el siguiente ConnectX-8 SuperNIC™, admite los estándares de Interfaz de Abstracción de Conmutadores (SAI) de OCP y Software para Redes Abiertas en la Nube (SONiC). Esto permite a los clientes utilizar el enrutamiento adaptativo de Spectrum-X y el control de congestión basado en telemetría para acelerar el rendimiento de Ethernet en infraestructuras de IA a gran escala.
Los ConnectX-8 SuperNICs presentan redes aceleradas a velocidades de hasta 800Gb/s y motores de procesamiento de paquetes programables optimizados para cargas de trabajo de IA de gran escala. Los ConnectX-8 SuperNICs para OCP 3.0 estarán disponibles el próximo año, equipando a las organizaciones para construir redes altamente flexibles.
Infraestructura esencial para centros de datos
Con la transición del mundo de la computación general a la computación acelerada y de IA, la infraestructura de los centros de datos se vuelve cada vez más compleja. Para simplificar el proceso de desarrollo, NVIDIA trabaja en estrecha colaboración con más de 40 fabricantes de electrónica globales que proporcionan componentes clave para crear fábricas de IA.
Además, una amplia variedad de socios están innovando y construyendo sobre la plataforma Blackwell, incluyendo a Meta, que planea contribuir su arquitectura de rack AI Catalina basada en GB200 NVL72 a OCP. Esto brinda a los fabricantes de computadoras opciones flexibles para construir sistemas de alta densidad de computación y satisfacer las crecientes necesidades de rendimiento y eficiencia energética de los centros de datos.
“NVIDIA ha sido un contribuyente significativo a los estándares de computación abierta durante años, incluida su plataforma de computación de alto rendimiento que ha sido la base de nuestro servidor Grand Teton durante los últimos dos años,” afirmó Yee Jiun Song, vicepresidente de ingeniería en Meta. “A medida que avanzamos para cumplir con las crecientes demandas computacionales de la inteligencia artificial de gran escala, las últimas contribuciones de NVIDIA en diseño de rack y arquitectura modular ayudarán a acelerar el desarrollo e implementación de infraestructura de IA en toda la industria.”