A través de diversas industrias, la IA está acelerando la innovación con computación impulsada por máquinas. En finanzas, los banqueros utilizan la IA para detectar fraudes más rápidamente y mantener las cuentas seguras, los proveedores de telecomunicaciones mejoran las redes para ofrecer un servicio superior, los científicos desarrollan nuevos tratamientos para enfermedades raras, las compañías de servicios públicos construyen redes de energía más limpias y fiables, y las compañías automotrices están haciendo que los autos autónomos sean más seguros y accesibles.
La base de los principales casos de uso de la IA es los datos. Los modelos de IA eficaces y precisos requieren entrenamiento con conjuntos de datos extensos. Las empresas que buscan aprovechar el poder de la IA deben establecer un flujo de datos que implique la extracción de datos de diversas fuentes, transformarlos en un formato consistente y almacenarlos de manera eficiente.
Los científicos de datos refinan los conjuntos de datos mediante múltiples experimentos para ajustar los modelos de IA para un rendimiento óptimo en aplicaciones del mundo real. Estas aplicaciones, desde asistentes de voz hasta sistemas de recomendación personalizados, requieren procesamiento rápido de grandes volúmenes de datos para ofrecer un rendimiento en tiempo real.
A medida que los modelos de IA se vuelven más complejos y comienzan a manejar tipos de datos diversos como texto, audio, imágenes y video, la necesidad de procesamiento rápido de datos se vuelve más crítica. Las organizaciones que continúan dependiendo de la computación basada en CPU tradicionales enfrentan innovaciones y rendimiento obstaculizados debido a cuellos de botella de datos, costos crecientes de centros de datos y capacidades de computación insuficientes.
Muchas empresas están recurriendo a la computación acelerada para integrar la IA en sus operaciones. Este método aprovecha las GPU, hardware especializado, software y técnicas de computación paralela para mejorar el rendimiento computacional hasta por 150x y aumentar la eficiencia energética hasta por 42x.
Compañías líderes en diferentes sectores están usando el procesamiento de datos acelerado para impulsar iniciativas de IA revolucionarias.
Finance organizations detect fraud in a fraction of a second
Las organizaciones financieras enfrentan un desafío significativo para detectar patrones de fraude debido a la enorme cantidad de datos transaccionales que requieren un análisis rápido. Además, la escasez de datos etiquetados para casos reales de fraude dificulta entrenar modelos de IA. Las canalizaciones convencionales de ciencia de datos carecen de la aceleración necesaria para manejar los grandes volúmenes de datos asociados con la detección de fraudes. Esto conduce a tiempos de procesamiento más lentos que obstaculizan la capacidad de análisis de datos en tiempo real y de detección de fraudes.
Para superar estos desafíos, American Express, que maneja más de 8 mil millones de transacciones al año, utiliza la computación acelerada para entrenar y desplegar modelos de memoria a largo plazo (LSTM). Estos modelos son excelentes en el análisis secuencial y la detección de anomalías y pueden adaptarse y aprender de nuevos datos, lo que los hace ideales para combatir el fraude.
Aprovechando las técnicas de computación paralela en GPU, American Express acelera significativamente el entrenamiento de sus modelos LSTM. Las GPU también permiten a los modelos en vivo procesar enormes volúmenes de datos transaccionales para realizar cálculos de alto rendimiento y detectar fraudes en tiempo real.
El sistema opera con una latencia de dos milisegundos para proteger mejor a los clientes y comerciantes, logrando una mejora de 50x en comparación con una configuración basada en CPU. Al combinar la red neuronal profunda LSTM acelerada con sus métodos existentes, American Express ha mejorado la precisión de detección de fraudes hasta en un 6% en segmentos específicos.
Las compañías financieras también pueden usar la computación acelerada para reducir los costos de procesamiento de datos. Ejecutando cargas de trabajo pesadas en datos Spark3 en GPUs de NVIDIA, PayPal confirmó el potencial de reducir los costos de la nube hasta en un 70% para el procesamiento de grandes datos y aplicaciones de IA.
Al procesar los datos de manera más eficiente, las instituciones financieras pueden detectar fraudes en tiempo real, permitiendo tomar decisiones más rápidas sin interrumpir el flujo de transacciones y minimizando el riesgo de pérdidas financieras.
Telcos simplifican operaciones complejas de enrutamiento
Los proveedores de telecomunicaciones generan enormes cantidades de datos de diversas fuentes, incluidos dispositivos de red, interacciones con clientes, sistemas de facturación y desempeño y mantenimiento de la red.
Gestionar redes nacionales que manejan cientos de petabytes de datos cada día requiere enrutamiento complejo de técnicos para garantizar la entrega del servicio. Para optimizar la asignación de técnicos, los motores de enrutamiento avanzados realizan billones de cálculos, teniendo en cuenta factores como el clima, las habilidades de los técnicos, las solicitudes de los clientes y la distribución de la flota. El éxito en estas operaciones depende de una preparación de datos meticulosa y suficiente poder computacional.
AT&T, que opera uno de los equipos de despacho de campo más grandes del país para atender a sus clientes, mejora las operaciones de enrutamiento con NVIDIA cuOpt, que se basa en heurísticas, metaheurísticas y optimizaciones para calcular problemas de enrutamiento de vehículos complejos.
En las primeras pruebas, cuOpt entregó soluciones de enrutamiento en 10 segundos, logrando una reducción del 90% en los costos de la nube y permitiendo a los técnicos completar más llamadas de servicio diariamente. NVIDIA RAPIDS, una suite de bibliotecas de software que permite la aceleración de canalizaciones de análisis y ciencia de datos, acelera aún más cuOpt, permitiendo a las empresas integrar heurísticas de búsqueda local y metaheurísticas como la búsqueda Tabu para una optimización continua de rutas.
AT&T está adoptando NVIDIA RAPIDS Accelerator para Apache Spark para mejorar el rendimiento de las canalizaciones de datos y IA basadas en Spark. Esto ha ayudado a la compañía a mejorar la eficiencia operativa desde el entrenamiento de modelos de IA hasta el mantenimiento de la calidad de la red, la reducción de la rotación de clientes y la mejora de la detección de fraudes. Con RAPIDS Accelerator, AT&T está reduciendo su gasto en computación en la nube para cargas de trabajo específicas mientras permite un rendimiento más rápido y reduce su huella de carbono.
Las canalizaciones y el procesamiento de datos acelerados serán fundamentales a medida que las telcos busquen mejorar la eficiencia operativa al tiempo que ofrecen la mejor calidad de servicio posible.
Biomedical researchers condense drug discovery timelines
A medida que los investigadores utilizan tecnología para estudiar los aproximadamente 25,000 genes en el genoma humano y comprender su relación con las enfermedades, ha habido una explosión de datos médicos y artículos de investigación revisados por pares. Los investigadores biomédicos dependen de estos artículos para acotar el campo de estudio para nuevos tratamientos. Sin embargo, realizar revisiones bibliográficas de un cuerpo tan masivo y en expansión de investigación relevante se ha convertido en una tarea imposible.
AstraZeneca, una compañía farmacéutica líder, desarrolló un Grafo de Conocimiento de Perspectivas Biológicas (BIKG, por sus siglas en inglés) para ayudar a los científicos en el proceso de descubrimiento de medicamentos, desde revisiones bibliográficas hasta clasificación de hits, identificación de objetivos y más. Este grafo integra bases de datos públicas e internas con información de literatura científica, modelando entre 10 millones y 1 mil millones de relaciones biológicas complejas.
BIKG se ha utilizado eficazmente para la clasificación de genes, ayudando a los científicos a formular hipótesis de objetivos con alto potencial para nuevos tratamientos de enfermedades. En NVIDIA GTC, el equipo de AstraZeneca presentó un proyecto que identificó con éxito genes vinculados a la resistencia en tratamientos de cáncer de pulmón.
Para reducir los genes potenciales, los científicos de datos e investigadores biológicos colaboraron para definir los criterios y características genéticas ideales para el desarrollo de tratamientos. Entrenaron a un algoritmo de aprendizaje automático para buscar en las bases de datos de BIKG genes con las características designadas mencionadas en la literatura como tratables. Utilizando NVIDIA RAPIDS para cálculos más rápidos, el equipo redujo el grupo inicial de genes de 3,000 a solo 40 genes objetivo, una tarea que anteriormente tomaba meses pero ahora lleva apenas segundos.
Al complementar el desarrollo de medicamentos con computación acelerada y IA, las compañías farmacéuticas y los investigadores finalmente pueden usar los enormes volúmenes de datos acumulados en el campo médico para desarrollar nuevos medicamentos de manera más rápida y segura, teniendo un impacto potencialmente salvador.
Utility companies build the future of clean energy
Ha habido un empuje significativo hacia la transición a fuentes de energía neutras en carbono en el sector energético. Con el costo de aprovechar recursos renovables como la energía solar cayendo drásticamente en los últimos 10 años, la oportunidad de hacer progresos reales hacia un futuro de energía limpia nunca ha sido mayor.
Sin embargo, este cambio hacia la integración de energía limpia de parques eólicos, solares y baterías domésticas ha introducido nuevas complejidades en la gestión de la red. A medida que la infraestructura energética se diversifica y se deben acomodar flujos de energía bidireccionales, la gestión de la red se ha vuelto más intensiva en datos. Nuevas redes inteligentes ahora deben manejar áreas de alto voltaje para la carga de vehículos. También deben gestionar la disponibilidad de fuentes de energía almacenada distribuida y adaptarse a las variaciones en el uso a lo largo de la red.
Utilidata, una empresa destacada de software de borde de red, ha colaborado con NVIDIA para desarrollar una plataforma de IA distribuida, Karman, para el borde de la red utilizando un módulo de IA de borde personalizado NVIDIA Jetson Orin. Este chip y plataforma personalizados, integrados en los medidores de electricidad, transforman cada medidor en un punto de recopilación y control de datos, capaz de manejar miles de puntos de datos por segundo.
Karman procesa datos en tiempo real y de alta resolución de los medidores en el borde de la red. Esto permite a las compañías de servicios públicos obtener información detallada sobre las condiciones de la red, predecir el uso e integrar sin problemas recursos energéticos distribuidos en segundos, en lugar de minutos u horas. Además, con modelos de inferencia en dispositivos de borde, los operadores de red pueden anticipar y rápidamente identificar fallos en las líneas para predecir posibles apagones y llevar a cabo un mantenimiento preventivo para aumentar la fiabilidad de la red.
A través de la integración de la IA y el análisis de datos acelerado, Karman ayuda a los proveedores de servicios públicos a transformar la infraestructura existente en redes inteligentes eficientes. Esto permite una distribución eléctrica localizada y personalizada para satisfacer patrones de demanda fluctuantes sin la necesidad de grandes actualizaciones de infraestructura física, facilitando una modernización más rentable de la red.
Automakers enable safer, more accessible, self-driving vehicles
A medida que las compañías automotrices se esfuerzan por lograr capacidades de conducción autónoma completa, los vehículos deben ser capaces de detectar objetos y navegar en tiempo real. Esto requiere tareas de procesamiento de datos de alta velocidad, incluido el suministro de datos en vivo de cámaras, lidar, radar y GPS en modelos de IA que toman decisiones de navegación para mantener las carreteras seguras.
El flujo de trabajo de inferencia de conducción autónoma es complejo e incluye múltiples modelos de IA junto con pasos necesarios de preprocesamiento y posprocesamiento. Tradicionalmente, estos pasos se manejaban en el lado del cliente usando CPUs. Sin embargo, esto puede llevar a cuellos de botella significativos en las velocidades de procesamiento, lo que es un inconveniente inaceptable para una aplicación donde el procesamiento rápido equivale a seguridad.
Para mejorar la eficiencia de los flujos de trabajo de conducción autónoma, el fabricante de vehículos eléctricos NIO integró NVIDIA Triton Inference Server en su flujo de inferencia. NVIDIA Triton es un software de inferencia de múltiples marcos, de código abierto. Al centralizar las tareas de procesamiento de datos, NIO redujo la latencia en 6x en algunas áreas clave e incrementó el rendimiento de datos general hasta en 5x.
El enfoque centrado en GPU de NIO facilitó la actualización y despliegue de nuevos modelos de IA sin la necesidad de cambiar nada en los vehículos mismos. Además, la compañía pudo usar múltiples modelos de IA al mismo tiempo en el mismo conjunto de imágenes sin tener que enviar datos de un lado a otro a través de una red, lo que ahorró en costos de transferencia de datos y mejoró el rendimiento.
Al utilizar el procesamiento de datos acelerado, los desarrolladores de software de vehículos autónomos aseguran que pueden alcanzar un estándar de alto rendimiento para evitar accidentes de tráfico, reducir costos de transporte y mejorar la movilidad de los usuarios.
Retailers improve demand forecasting
En el entorno minorista de ritmo rápido, la capacidad de procesar y analizar datos rápidamente es crítica para ajustar los niveles de inventario, personalizar las interacciones con los clientes y optimizar las estrategias de precios sobre la marcha. Cuanto más grande es un minorista y más productos lleva, más complejas e intensivas en computación serán sus operaciones de datos.
Walmart, el minorista más grande del mundo, recurrió a la computación acelerada para mejorar significativamente la precisión de las previsiones para 500 millones de combinaciones artículo-por-tienda en 4,500 tiendas.
A medida que el equipo de ciencia de datos de Walmart construía algoritmos de aprendizaje automático más robustos para enfrentar este desafío de previsión masivo, el entorno computacional existente comenzó a fallar, con trabajos que no se completaban o generaban resultados inexactos. La compañía descubrió que sus científicos de datos tenían que eliminar características de los algoritmos solo para que estos se ejecutaran hasta su finalización.
Para mejorar sus operaciones de previsión, Walmart comenzó a usar GPUs de NVIDIA y RAPIDS. La compañía ahora usa un modelo de previsión con 350 características de datos para predecir ventas en todas las categorías de productos. Estas características abarcan datos de ventas, eventos promocionales y factores externos como condiciones climáticas y eventos importantes como el Super Bowl, que influyen en la demanda.
Los modelos avanzados ayudaron a Walmart a mejorar la precisión de las previsiones del 94% al 97% mientras eliminaban un estimado de $100 millones en desperdicio de productos frescos y reducían escenarios de falta de stock y rebajas. Las GPUs también ejecutaron modelos 100x más rápido con trabajos completados en solo cuatro horas, una operación que habría tomado varias semanas en un entorno de CPU.
Al trasladar las operaciones intensivas en datos a GPUs y computación acelerada, los minoristas pueden reducir tanto sus costos como su huella de carbono mientras ofrecen las mejores opciones y precios más bajos a los compradores.
Public sector improves disaster preparedness
Los drones y satélites capturan enormes cantidades de datos de imágenes aéreas que las organizaciones públicas y privadas usan para predecir patrones climáticos, rastrear migraciones de animales y observar cambios ambientales. Estos datos son invaluables para la investigación y planificación, permitiendo una toma de decisiones más informada en campos como la agricultura, gestión de desastres y esfuerzos para combatir el cambio climático. Sin embargo, el valor de estas imágenes puede ser limitado si carecen de metadatos de ubicación específicos.
Una agencia federal que trabaja con NVIDIA necesitaba una manera de identificar automáticamente la ubicación de imágenes que carecían de metadatos geoespaciales, que son esenciales para misiones como la búsqueda y rescate, la respuesta a desastres naturales y el monitoreo del medio ambiente. Sin embargo, identificar un área pequeña dentro de una región más grande utilizando una imagen aérea sin metadatos es extremadamente desafiante, similar a encontrar una aguja en un pajar. Algoritmos diseñados para ayudar con la geolocalización deben abordar variaciones en la iluminación de las imágenes y diferencias debido a que las imágenes se toman en varios momentos, fechas y ángulos.
Para identificar imágenes aéreas sin etiquetas geográficas, NVIDIA, Booz Allen y la agencia gubernamental colaboraron en una solución que utiliza algoritmos de visión por computadora para extraer información de los datos de píxeles de las imágenes para escalar el problema de búsqueda de similitud de imágenes.
Al intentar resolver este problema, un arquitecto de soluciones de NVIDIA primero usó una aplicación basada en Python. Inicialmente ejecutada en CPUs, el procesamiento tomó más de 24 horas. Las GPUs supercargaron esto a solo minutos, realizando miles de operaciones de datos en paralelo en lugar de solo un puñado de operaciones en una CPU. Al cambiar el código de la aplicación a CuPy, una biblioteca acelerada por GPU de código abierto, la aplicación experimentó una aceleración notable de 1.8 millones de veces, devolviendo resultados en 67 microsegundos.
Con una solución capaz de procesar imágenes y los datos de grandes masas de tierra en solo minutos, las organizaciones pueden obtener acceso a la información crítica necesaria para responder más rápidamente y eficazmente a emergencias y planificar de manera proactiva, potencialmente salvando vidas y protegiendo el medio ambiente.
Accelerate AI initiatives and deliver business results
Las empresas que usan la computación acelerada para el procesamiento de datos están avanzando en las iniciativas de IA y posicionándolas para innovar y desempeñarse a niveles más altos que sus pares. La computación acelerada maneja conjuntos de datos más grandes de manera más eficiente, permite un entrenamiento de modelos más rápido y la selección de algoritmos óptimos, y facilita resultados más precisos para soluciones de IA en vivo.
Las empresas que la usan pueden lograr relaciones precio-rendimiento superiores en comparación con los sistemas basados en CPU tradicionales y mejorar su capacidad para ofrecer resultados y experiencias sobresalientes a clientes, empleados y socios.
Aprende cómo
- A word from our sposor -