Amazon Web Services (AWS) expande colaboración con NVIDIA
La inteligencia artificial generativa está transformando rápidamente diversas industrias, impulsando la demanda de soluciones de inferencia seguras y de alto rendimiento para escalar modelos cada vez más complejos de manera eficiente y rentable. En su conferencia anual, AWS re:Invent, AWS anunció que ha ampliado los microservicios NIM de NVIDIA a través de servicios clave de AWS AI para favorecer una inferencia de inteligencia artificial más rápida y una menor latencia en las aplicaciones de inteligencia artificial generativa.
Novedades de microservicios NIM de NVIDIA
Los microservicios NIM de NVIDIA ahora están disponibles directamente en el Marketplace de AWS, así como en Amazon Bedrock Marketplace y Amazon SageMaker JumpStart, facilitando aún más a los desarrolladores desplegar inferencia optimizada por NVIDIA para modelos de uso común a gran escala. NIM, que forma parte de la plataforma de software NVIDIA AI Enterprise, ofrece a los desarrolladores un conjunto de microservicios fáciles de usar, diseñados para un despliegue seguro y confiable de inferencia de modelos de inteligencia artificial de alto rendimiento a través de diferentes nubes, centros de datos y estaciones de trabajo.
Estos contenedores preconstruidos se basan en motores de inferencia robustos, como NVIDIA Triton Inference Server, NVIDIA TensorRT y PyTorch, y son compatibles con un amplio espectro de modelos de inteligencia artificial, desde aquellos de código abierto hasta modelos de NVIDIA AI Foundation y personalizados.
Despliegue de microservicios NIM en AWS
Los microservicios NIM pueden ser desplegados en varios servicios de AWS, incluyendo Amazon Elastic Compute Cloud (EC2), Amazon Elastic Kubernetes Service (EKS) y Amazon SageMaker. Los desarrolladores pueden visualizar más de 100 microservicios NIM creados a partir de modelos y familias de modelos de uso común, que incluyen Llama 3 de Meta, Mistral de Mistral AI, Nemotron de NVIDIA, SDXL de Stability AI y muchos más. Los más utilizados están disponibles para autoalojamiento en los servicios de AWS y están optimizados para ejecutarse en instancias de computación acelerada por NVIDIA en AWS.
Microservicios NIM disponibles en AWS
Entre los microservicios NIM ahora disponibles directamente en AWS se encuentran:
- NVIDIA Nemotron-4, disponible en Amazon Bedrock Marketplace, Amazon SageMaker Jumpstart y AWS Marketplace. Este es un modelo de lenguaje de última generación diseñado para generar datos sintéticos diversos que mimetizan de cerca los datos del mundo real, mejorando el rendimiento y la robustez de los LLMs personalizados en varios dominios.
- Llama 3.1 8B-Instruct, disponible en AWS Marketplace. Este modelo de lenguaje multilingüe de 8 mil millones de parámetros está preentrenado y ajustado para casos de uso de comprensión del lenguaje, razonamiento y generación de texto.
- Llama 3.1 70B-Instruct, disponible en AWS Marketplace. Este modelo preentrenado de 70 mil millones de parámetros está optimizado para diálogos multilingües.
- Mixtral 8x7B Instruct v0.1, disponible en AWS Marketplace. Este modelo de mezcla de expertos de alta calidad con pesos abiertos puede seguir instrucciones, completar solicitudes y generar formatos de texto creativos.
NIM en AWS para todos
Los clientes y socios de diversas industrias están utilizando NIM en AWS para acelerar su entrada al mercado, mantener la seguridad y el control sobre sus aplicaciones y datos de inteligencia artificial generativa, así como reducir costos. SoftServe, un proveedor de servicios digitales y consultoría en TI, desarrolló seis soluciones de inteligencia artificial generativa completamente desplegadas en AWS y potenciadas por los servicios de NIM y AWS. Estas soluciones, disponibles en AWS Marketplace, incluyen SoftServe Gen AI Drug Discovery, SoftServe Gen AI Industrial Assistant, Digital Concierge, Multimodal RAG System, Content Creator y Speech Recognition Platform.
Todas están basadas en NVIDIA AI Blueprints, flujos de trabajo de referencia integrales que aceleran el desarrollo y desplegamiento de aplicaciones de inteligencia artificial, y que cuentan con bibliotecas de aceleración de NVIDIA, kits de desarrollo de software y microservicios NIM para agentes de inteligencia artificial, gemelos digitales y más.
Comienza ahora con NIM en AWS
Los desarrolladores pueden desplegar microservicios NIM de NVIDIA en AWS según sus necesidades y requisitos únicos. Al hacerlo, tanto desarrolladores como empresas pueden alcanzar una inteligencia artificial de alto rendimiento con contenedores de inferencia optimizados por NVIDIA en varios servicios de AWS.
Explora el catálogo de API de NVIDIA para probar más de 100 modelos optimizados por NIM y solicitar una licencia de desarrollador o una licencia de prueba de 90 días de NVIDIA AI Enterprise, para comenzar a desplegar los microservicios en los servicios de AWS. Los desarrolladores también pueden explorar microservicios NIM en el Marketplace de AWS, Amazon Bedrock Marketplace o Amazon SageMaker JumpStart.