Leave a reply

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

La inteligencia artificial generativa está abriendo nuevas formas para que las empresas se conecten con los clientes a través de avatares humanos digitales.

Conoce a James, un embajador digital de marca

Desarrollado sobre microservicios de NVIDIA NIM, James es un asistente virtual que proporciona respuestas contextualmente precisas.

Utilizando generación aumentada por recuperación (RAG), James puede informar a los usuarios sobre las últimas tecnologías de NVIDIA. ACE permite a los desarrolladores usar sus propios datos para crear avatares específicos del dominio que puedan comunicar información relevante a los clientes.

James se impulsa con las últimas tecnologías de renderizado NVIDIA RTX para animaciones avanzadas y realistas. Su voz, natural y envolvente, es producida por ElevenLabs. NVIDIA ACE permite a los desarrolladores personalizar la animación, la voz y el idioma al construir avatares adaptados a diferentes usos.

NVIDIA Maxine mejora a los humanos digitales en telepresencia

Maxine, una plataforma para implementar características avanzadas de inteligencia artificial que mejoran la calidad de audio y video de los humanos digitales, habilita el uso de avatares 2D y 3D fotorrealistas en dispositivos de videoconferencia en tiempo real.

Maxine 3D convierte entradas de video en 2D en avatares 3D, facilitando la integración de humanos digitales altamente realistas en videoconferencias y otras aplicaciones de comunicación bidireccional. La tecnología estará pronto disponible en acceso anticipado.

Audio2Face-2D, actualmente en acceso anticipado, anima retratos estáticos basados en la entrada de audio, creando humanos digitales dinámicos y hablantes a partir de una sola imagen.

Empresas que adoptan aplicaciones de humanos digitales

HTC, Looking Glass, Reply y UneeQ son algunas de las últimas compañías que utilizaron NVIDIA ACE y Maxine en una amplia gama de casos de uso, incluidos agentes de servicio al cliente y experiencias de telepresencia en entretenimiento, retail y hospitalidad.

En SIGGRAPH, el desarrollador de tecnología de humanos digitales UneeQ mostró dos nuevas demostraciones.

La primera destaca humanos digitales renderizados en la nube, impulsados por GPUs de NVIDIA, con visión por computadora local en el navegador para una mejor escalabilidad y privacidad, y animados utilizando el microservicio Audio2Face-3D de NVIDIA NIM. La tecnología Synapse de UneeQ procesa datos de usuario anonimados y los alimenta a un modelo de lenguaje grande (LLM) para interacciones más precisas y responsivas.

La segunda demostración se ejecutó en una laptop impulsada por una única GPU NVIDIA RTX, presentando un humano digital avanzado alimentado por el LLM Gemma 7B, RAG y el microservicio Audio2Face-3D de NVIDIA NIM.

Ambas demostraciones exhibieron los esfuerzos impulsados por NVIDIA de UneeQ para desarrollar humanos digitales que pueden reaccionar a las expresiones faciales y acciones de los usuarios, llevando los límites del realismo en experiencias de servicio al cliente virtual.

HTC Viverse integró el microservicio Audio2Face-3D de NVIDIA NIM en su agente de IA VIVERSE para lograr una animación facial dinámica y sincronización labial, permitiendo interacciones más naturales e inmersivas para los usuarios.

La empresa de tecnología holográfica Looking Glass presentó en SIGGRAPH la demostración de su Espejo Mágico, que utiliza una simple configuración de cámara y las avanzadas capacidades de AI 3D de Maxine para generar un feed holográfico en tiempo real de los rostros de los usuarios en sus recién lanzados, pantallas espaciales de 16 y 32 pulgadas, visibles en grupo.

Reply presentó una versión mejorada de Futura, su humano digital de vanguardia desarrollado para el crucero Costa Smeralda de Costa Crociere. Impulsado por el microservicio Audio2Face-3D de NVIDIA NIM y el microservicio Riva ASR NIM, las capacidades de síntesis de voz de Futura abarcan tecnologías avanzadas como GPT-4o, LlamaIndex para RAG y los servicios de texto a voz de Microsoft Azure.

Futura también incorpora la tecnología de computación afectiva patentada de Reply, junto con Hume AI y MorphCast, para una completa reconocimiento de emociones. Construido utilizando Unreal Engine 5.4.3 y MetaHuman Creator con animación facial impulsada por NVIDIA ACE, Futura soporta seis idiomas. El asistente inteligente puede ayudar a planificar visitas personalizadas a puertos, sugerir itinerarios adaptados y facilitar reservas de excursiones.

Además, Futura refina recomendaciones basadas en la retroalimentación de los huéspedes y utiliza una base de conocimiento especialmente creada para proporcionar presentaciones informativas de la ciudad, mejorando los itinerarios turísticos. Futura busca mejorar el servicio al cliente y ofrecer interacciones inmersivas en escenarios del mundo real, optimizando operaciones y fomentando el crecimiento empresarial.

- A word from our sposor -

spot_img

NVIDIA presenta tecnologías de humanos digitales que mejoran las interacciones con clientes en diversas industrias