CoreWeave se convierte en pionero en la implementación de sistemas NVIDIA GB200 NVL72
CoreWeave ha logrado un avance significativo al ser uno de los primeros proveedores de servicios en la nube en poner en marcha los sistemas NVIDIA GB200 NVL72 a gran escala, permitiendo a empresas de inteligencia artificial como Cohere, IBM y Mistral AI utilizarlos para entrenar y desplegar modelos y aplicaciones de IA de última generación. Esta nueva infraestructura está diseñada para potenciar el rendimiento y la eficiencia en el procesamiento de datos.
La empresa, que ya había sido la primera en ofrecer acceso al NVIDIA Grace Blackwell, ha mostrado resultados notables en las pruebas de rendimiento de MLPerf con los sistemas GB200 NVL72, diseñada especialmente para realizar razonamiento y operaciones relacionadas con agentes de IA. Gracias a esta iniciativa, los clientes de CoreWeave podrán acceder a miles de GPUs NVIDIA Blackwell.
Colaboraciones con líderes en IA
Mike Intrator, CEO de CoreWeave, destacó la importancia de trabajar en estrecha colaboración con NVIDIA para ofrecer las soluciones más avanzadas a los clientes. “Con los nuevos sistemas Grace Blackwell en funcionamiento, muchos de nuestros clientes experimentarán por primera vez los beneficios y el rendimiento que ofrecen los innovadores de la IA a gran escala”, afirmó Intrator.
Las soluciones implementadas están transformando los centros de datos en lo que se conoce como “fábricas de IA”, capaces de convertir datos en tiempo real con rapidez y precisión. Empresas líderes en inteligencia artificial ya están aprovechando las capacidades del sistema GB200 NVL72 para desarrollar aplicaciones de IA avanzadas.
Cohere, por ejemplo, utiliza sus Superchips Grace Blackwell para crear aplicaciones seguras de IA empresarial. Su plataforma de IA, North, permite que los equipos generen agentes de IA personalizables para automatizar flujos de trabajo y proporcionar información en tiempo real. Hasta ahora, Cohere ha registrado un incremento de hasta tres veces en el rendimiento al entrenar modelos de 100 mil millones de parámetros en comparación con las GPUs de generación anterior.
En cuanto a IBM, la empresa está aprovechando uno de los primeros despliegues de los sistemas GB200 NVL72 para entrenar sus modelos Granite, que se presentan como soluciones de IA listas para empresas, optimizadas para velocidad, seguridad y eficiencia de costos. El vicepresidente de IA de IBM Research, Sriram Raghavan, expresó su entusiasmo por la colaboración con CoreWeave, señalando que “la aceleración que NVIDIA GB200 NVL72 puede aportar a la formación de nuestros modelos Granite es invaluable”.
Recursos computacionales para el futuro
Mistral AI, una destacada empresa parisina enfocada en IA de código abierto, también está beneficiándose de la infraestructura de CoreWeave, que ahora incluye el GB200 NVL72. Mistral AI se propone desarrollar modelos de lenguaje de próxima generación, utilizando recursos computacionales de alto rendimiento y a gran escala.
El cofundador y CTO de Mistral AI, Thimothee Lacroix, declaró que han observado una mejora del 2x en el rendimiento para el entrenamiento de modelos densos con el nuevo sistema, y subrayó las nuevas oportunidades que presenta el GB200 NVL72 para el desarrollo de modelos e inferencia.
CoreWeave también ofrece instancias con conectividad rack-scale NVIDIA NVLink, que abarcan hasta 72 GPUs Blackwell y 36 CPUs Grace, escalando hasta un total de 110,000 GPUs con la red NVIDIA Quantum-2 InfiniBand. Esta infraestructura promete proporcionar la capacidad y el rendimiento necesarios para construir y desplegar los modelos y agentes de razonamiento en IA de próxima generación.