Leave a reply

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

CoreWeave ha lanzado instancias basadas en NVIDIA GB200 NVL72, convirtiéndose en el primer proveedor de servicios en la nube en hacer disponible de manera general la NVIDIA Blackwell. Estos modelos de razonamiento en inteligencia artificial prometen transformar varias industrias, pero su desarrollo a gran escala requiere un enorme poder computacional y software optimizado. El proceso de “razonamiento” envuelve múltiples modelos, generando una gran cantidad de tokens adicionales, y demanda infraestructura que combine comunicación de alta velocidad, memoria y capacidad de cómputo para garantizar resultados de alta calidad en tiempo real.

NVIDIA GB200 NVL72 en CoreWeave

Las instancias de NVIDIA GB200 NVL72 son soluciones con refrigeración líquida y están configuradas para un dominio NVLink de 72 GPU, lo que permite que estas unidades actúen como una sola GPU masiva. NVIDIA Blackwell presenta múltiples avances tecnológicos que aceleran la generación de tokens de inferencia, mejorando el rendimiento mientras se reducen los costos del servicio. Por ejemplo, la quinta generación de NVLink habilita un ancho de banda de 130TB/s en un dominio NVLink de 72 GPU, y el motor Transformer de segunda generación permite un rendimiento de IA más rápido manteniendo una alta precisión.

CoreWeave ha diseñado su portafolio de servicios de nube gestionados específicamente para Blackwell. El CoreWeave Kubernetes Service optimiza la orquestación de cargas de trabajo al exponer IDs de dominio NVLink, asegurando una programación eficiente dentro del mismo rack. Además, Slurm en Kubernetes (SUNK) soporta la integración de bloque de topología, permitiendo una distribución inteligente de cargas de trabajo a través de racks GB200 NVL72. La plataforma de observabilidad de CoreWeave proporciona además información en tiempo real sobre el rendimiento de NVLink, la utilización de GPU y temperaturas.

Plataforma de Cómputo Acelerado para IA Empresarial

La plataforma de IA de NVIDIA combina software de vanguardia con infraestructura impulsada por Blackwell para ayudar a las empresas a construir agentes de IA rápidos, precisos y escalables. NVIDIA Blueprints ofrece flujos de trabajo de referencia predefinidos y personalizables listos para implementar, ayudando a los desarrolladores a crear aplicaciones del mundo real. NVIDIA NIM es un conjunto de microservicios fáciles de usar diseñados para la implementación segura y confiable de modelos de IA de alto rendimiento para la inferencia. Además, NVIDIA NeMo incluye herramientas para el entrenamiento, la personalización y la mejora continua de modelos de IA para casos de uso empresariales modernos. Las empresas pueden utilizar NVIDIA Blueprints, NIM y NeMo para construir y afinar modelos para sus agentes de IA especializados.

El lanzamiento de instancias basadas en NVIDIA GB200 NVL72 en CoreWeave destaca la más reciente colaboración entre las empresas, enfocándose en ofrecer las últimas soluciones de cómputo acelerado en la nube. Con la disponibilidad de estas instancias, las empresas ahora tienen acceso a la escala y el rendimiento necesarios para impulsar la próxima ola de modelos y agentes de razonamiento en IA.

- A word from our sposor -

spot_img