Naciones de todo el mundo están persiguiendo la IA soberana para producir inteligencia artificial utilizando su propia infraestructura informática, datos, mano de obra y redes comerciales, asegurando que los sistemas de IA se alineen con los valores, leyes e intereses locales.
En apoyo a estos esfuerzos, NVIDIA anunció la disponibilidad de cuatro nuevos microservicios NIM de NVIDIA que permiten a los desarrolladores construir y desplegar aplicaciones de IA generativa de alto rendimiento con mayor facilidad.
Los microservicios son compatibles con modelos comunitarios populares, adaptados para satisfacer necesidades regionales. Estos mejoran la interacción del usuario a través de una comprensión precisa y respuestas mejores en base a lenguas locales y patrimonio cultural.
En la región de Asia-Pacífico, se esperaba que los ingresos de software de IA generativa alcanzaran los $48 mil millones para 2030, en comparación con $5 mil millones de este año.
Los modelos de lenguaje regional Llama-3-Swallow-70B, entrenados con datos en japonés, y Llama-3-Taiwan-70B, entrenados con datos en mandarín, ofrecen una comprensión más profunda de las leyes locales, regulaciones y costumbres.
La familia de modelos RakutenAI 7B, construida sobre Mistral-7B, fue entrenada en conjuntos de datos en inglés y japonés, disponibles como dos microservicios NIM diferentes para Chat e Instruct. Los modelos de fundación e instruct de Rakuten lograron puntajes destacados entre los modelos de lenguaje grande abiertos en japonés.
El entrenamiento de un modelo de lenguaje grande (LLM) en idiomas regionales mejora la efectividad de sus resultados al asegurar una comunicación más precisa y matizada, reflejando mejor las sutilezas culturales y lingüísticas.
Los modelos ofrecen un rendimiento líder para la comprensión de idiomas japonés y mandarín, tareas legales regionales, respuestas a preguntas y traducción y resumen de idiomas, en comparación con los LLM bases como Llama 3.
Las naciones de todo el mundo, desde Singapur, los Emiratos Árabes Unidos, Corea del Sur y Suecia hasta Francia, Italia e India, están invirtiendo en la infraestructura de IA soberana.
Los nuevos microservicios NIM permiten a empresas, agencias gubernamentales y universidades alojar LLM nativos en sus propios entornos, permitiendo a los desarrolladores crear copilotos avanzados, chatbots y asistentes de IA.
Desarrollando aplicaciones con microservicios NIM de IA soberana
Los desarrolladores pueden desplegar fácilmente los modelos de IA soberana, empaquetados como microservicios NIM, en producción, logrando un rendimiento mejorado.
Los microservicios, disponibles con NVIDIA AI Enterprise, están optimizados para inferencia con la biblioteca de código abierto NVIDIA TensorRT-LLM.
Los microservicios NIM para Llama 3 70B, que se utilizó como modelo base para los nuevos Llama–3-Swallow-70B y Llama-3-Taiwan-70B, pueden proporcionar hasta 5 veces más rendimiento. Esto reduce el costo total de funcionamiento de los modelos en producción y brinda una mejor experiencia al usuario al disminuir la latencia.
Los nuevos microservicios NIM están disponibles como interfaces de programación de aplicaciones (APIs) hospedadas.
Utilizando NVIDIA NIM para resultados generativos de IA más rápidos y precisos
Los microservicios NIM aceleran los despliegues, mejoran el rendimiento general y proporcionan la seguridad necesaria para organizaciones en diversas industrias globales, incluyendo salud, finanzas, manufactura, educación y legal.
El Instituto Tecnológico de Tokio ajustó Llama-3-Swallow 70B utilizando datos en japonés.
“Los LLM no son herramientas mecánicas que brindan el mismo beneficio para todos. Son, más bien, herramientas intelectuales que interactúan con la cultura y creatividad humanas. La influencia es mutua, donde no solo los modelos se ven afectados por los datos en los que se entrenan, sino que nuestra cultura y los datos que generamos también son influenciados por los LLM”, dijo Rio Yokota, profesor en el Centro Global de Información Científica y Computación del Instituto Tecnológico de Tokio. “Por lo tanto, es de suma importancia desarrollar modelos de IA soberana que se adhieran a nuestras normas culturales. La disponibilidad de Llama-3-Swallow como microservicio NIM de NVIDIA permitirá a los desarrolladores acceder y desplegar el modelo para aplicaciones japonesas en diversas industrias.”
Por ejemplo, una compañía de IA japonesa, Preferred Networks, utiliza el modelo para desarrollar un modelo específico para el cuidado de la salud, llamado Llama3-Preferred-MedSwallow-70B, que obtiene los mejores puntajes en el Examen Nacional de Japón para Médicos.
El Chang Gung Memorial Hospital (CGMH), uno de los hospitales más destacados en Taiwán, está construyendo un Servicio de Inferencia de IA (AIIS) personalizado para centralizar todas las aplicaciones de LLM dentro del sistema hospitalario. Utilizando Llama 3-Taiwan 70B, mejora la eficiencia del personal médico en la primera línea con un lenguaje médico más matizado que los pacientes pueden entender.
“Al proporcionar orientación instantánea y apropiada al contexto, las aplicaciones de IA construidas con LLMs en idiomas locales optimizan los flujos de trabajo y sirven como una herramienta de aprendizaje continuo para apoyar el desarrollo del personal y mejorar la calidad de la atención al paciente”, dijo el Dr. Changfu Kuo, director del Centro de Inteligencia Artificial en Medicina en el CGMH, sucursal de Linko. “NVIDIA NIM está simplificando el desarrollo de estas aplicaciones, permitiendo un fácil acceso y despliegue de modelos entrenados en idiomas regionales con una experiencia de ingeniería mínima.”
Pegatron, un fabricante de dispositivos electrónicos con sede en Taiwán, adoptará el microservicio Llama 3-Taiwan 70B NIM para aplicaciones internas y externas. Lo ha integrado con su Sistema de IA Agentic PEGAAi para automatizar procesos, mejorando la eficiencia en manufactura y operaciones.
Llama-3-Taiwan 70B NIM también está siendo utilizado por el fabricante petroquímico global Chang Chun Group, la empresa líder mundial en placas de circuito impreso Unimicron, la empresa de medios enfocada en tecnología TechOrange, la compañía de servicios de contratos en línea LegalSign.ai, y la startup de IA generativa APMIC. Estas empresas también están colaborando en el modelo abierto.
Creando modelos empresariales personalizados con NVIDIA AI Foundry
Si bien los modelos de IA regionales pueden proporcionar respuestas culturalmente matizadas y localizadas, las empresas aún necesitan ajustarlos para sus procesos comerciales y experiencia en el dominio.
NVIDIA AI Foundry es una plataforma y servicio que incluye modelos de fundación populares, NVIDIA NeMo para ajuste fino, y capacidad dedicada en NVIDIA DGX Cloud para ofrecer a los desarrolladores una solución de pila completa para crear un modelo de fundación personalizado empaquetado como un microservicio NIM.
Además, los desarrolladores que utilizan NVIDIA AI Foundry tienen acceso a la plataforma de software NVIDIA AI Enterprise, que proporciona seguridad, estabilidad y soporte para despliegues en producción.
NVIDIA AI Foundry proporciona a los desarrolladores las herramientas necesarias para construir y desplegar fácilmente sus propios microservicios NIM personalizados en idiomas regionales, potenciando aplicaciones de IA y asegurando resultados cultural y lingüísticamente apropiados para sus usuarios.