Por Qué el Procesamiento Acelerado de Datos es Crucial para la Innovación de la IA en Todos los Sectores

por Ben Oliveri

En todas las industrias, la IA está impulsando la innovación con computación impulsada por máquinas. En las finanzas, los banqueros están utilizando la IA para detectar fraudes más rápidamente y mantener las cuentas seguras, los proveedores de telecomunicaciones están mejorando las redes para ofrecer un servicio superior, los científicos están desarrollando nuevos tratamientos para enfermedades raras, las empresas de servicios públicos están construyendo redes de energía más limpias y fiables y las empresas automotrices están haciendo que los vehículos autónomos sean más seguros y accesibles.

La columna vertebral de los principales casos de uso de IA son los datos. Los modelos de IA eficaces y precisos requieren entrenamiento con conjuntos de datos extensos. Las empresas que buscan aprovechar el poder de la IA deben establecer un pipeline de datos que implique extraer datos de diversas fuentes, transformarlos en un formato coherente y almacenarlos de manera eficiente.

Los científicos de datos trabajan para refinar los conjuntos de datos a través de múltiples experimentos para ajustar los modelos de IA y obtener un rendimiento óptimo en aplicaciones del mundo real. Estas aplicaciones, desde asistentes de voz hasta sistemas de recomendación personalizados, requieren un procesamiento rápido de grandes volúmenes de datos para ofrecer un rendimiento en tiempo real.

A medida que los modelos de IA se vuelven más complejos y comienzan a manejar diversos tipos de datos, como texto, audio, imágenes y video, la necesidad de un procesamiento rápido de datos se vuelve más crítica. Las organizaciones que siguen confiando en la computación basada en CPU heredada están luchando con la innovación y el rendimiento obstaculizados debido a los cuellos de botella de los datos, el aumento de los costes de los data centers y las capacidades de computación insuficientes.

Muchas empresas están recurriendo a la computación acelerada para integrar la IA en sus operaciones. Este método aprovecha las GPU, el hardware especializado, el software y las técnicas de computación paralela para aumentar el rendimiento de computación hasta 150 veces y aumentar la eficiencia energética hasta 42 veces.

Las empresas líderes de diferentes sectores están utilizando el procesamiento acelerado de datos para encabezar iniciativas innovadoras de IA.

Las Organizaciones Financieras Detectan el Fraude en una Fracción de Segundo

Las organizaciones financieras se enfrentan a un reto importante a la hora de detectar patrones de fraude debido a la gran cantidad de datos transaccionales que requieren un análisis rápido. Además, la escasez de datos etiquetados para casos reales de fraude plantea una dificultad en el entrenamiento de modelos de IA. Los pipelines convencionales de ciencia de datos carecen de la aceleración necesaria para manejar los grandes volúmenes de datos asociados con la detección de fraudes. Esto conduce a tiempos de procesamiento más lentos que dificultan el análisis de datos en tiempo real y las capacidades de detección de fraudes.

Para superar estos desafíos, American Express, que maneja más de 8 mil millones de transacciones por año, utiliza computación acelerada para entrenar e implementar modelos de memoria a corto plazo (LSTM). Estos modelos destacan en el análisis secuencial y la detección de anomalías, y pueden adaptarse y aprender de los nuevos datos, lo que los hace ideales para combatir el fraude.

Aprovechando las técnicas de computación paralela en las GPU, American Express acelera significativamente el entrenamiento de sus modelos LSTM. Las GPU también permiten que los modelos en vivo procesen grandes volúmenes de datos transaccionales para realizar cálculos de alto rendimiento para detectar fraudes en tiempo real.

El sistema funciona dentro de los dos milisegundos de latencia para proteger mejor a los clientes y comerciantes, lo que ofrece una mejora de 50 veces con respecto a una configuración basada en CPU. Al combinar la red neuronal profunda LSTM acelerada con sus métodos existentes, American Express ha mejorado la precisión de la detección de fraudes hasta en un 6% en segmentos específicos.

Las empresas financieras también pueden utilizar la computación acelerada para reducir los costos de procesamiento de datos. Al ejecutar cargas de trabajo Spark3 con gran cantidad de datos en GPU NVIDIA, PayPal confirmó el potencial de reducir los costos de la nube hasta en un 70% para el procesamiento de big data y las aplicaciones de IA.

Al procesar los datos de manera más eficiente, las instituciones financieras pueden detectar el fraude en tiempo real, lo que permite una toma de decisiones más rápida sin interrumpir el flujo de transacciones y minimizar el riesgo de pérdidas financieras.

Las Empresas de Telecomunicaciones Simplifican las Complejas Operaciones de Enrutamiento

Los proveedores de telecomunicaciones generan inmensas cantidades de datos de diversas fuentes, incluidos los dispositivos de red, las interacciones con los clientes, los sistemas de facturación y el rendimiento y mantenimiento de la red.

La gestión de redes nacionales que manejan cientos de petabytes de datos todos los días requiere un enrutamiento técnico complejo para garantizar la prestación de servicios. Para optimizar el envío de técnicos, los motores de enrutamiento avanzados realizan billones de cálculos, teniendo en cuenta factores como el clima, las habilidades de los técnicos, las solicitudes de los clientes y la distribución de la flota. El éxito en estas operaciones depende de una preparación meticulosa de los datos y de una potencia de computación suficiente.

AT&T, que opera uno de los equipos de despacho de campo más grandes del país para atender a sus clientes, está mejorando las operaciones de enrutamiento con gran cantidad de datos con NVIDIA cuOpt, que se basa en heurísticas, metaheurísticas y optimizaciones para calcular problemas complejos de enrutamiento de vehículos.

En las primeras pruebas, cuOpt entregó soluciones de enrutamiento en 10 segundos, logrando una reducción del 90% en los costos de la nube y permitiendo a los técnicos completar más llamadas de servicio diariamente. NVIDIA RAPIDS, un conjunto de bibliotecas de software que permite acelerar los pipelines de ciencia de datos y análisis, acelera aún más cuOpt, lo que permite a las empresas integrar heurísticas de búsqueda local y metaheurísticas como la búsqueda Tabu para la optimización continua de rutas.

AT&T está adoptando NVIDIA RAPIDS Accelerator para Apache Spark para mejorar el rendimiento de la IA basada en Spark y los pipelines de datos. Esto ha ayudado a la empresa a aumentar la eficiencia operativa en todo, desde el entrenamiento de modelos de IA hasta el mantenimiento de la calidad de la red, pasando por la reducción de la pérdida de clientes y la mejora de la detección de fraudes. Con RAPIDS Accelerator, AT&T está reduciendo su gasto en computación en la nube para las cargas de trabajo objetivo, al tiempo que permite un rendimiento más rápido y reduce su huella de carbono.

La aceleración de los pipelines y el procesamiento de datos serán fundamentales a medida que las empresas de telecomunicaciones busquen mejorar la eficiencia operativa al tiempo que ofrecen la mayor calidad de servicio posible.

Investigadores Biomédicos Condensan Cronogramas de Descubrimiento de Fármacos

A medida que los investigadores utilizan la tecnología para estudiar los aproximadamente 25.000 genes del genoma humano para comprender su relación con las enfermedades, ha habido una explosión de datos médicos y trabajos de investigación revisados por pares. Los investigadores biomédicos se basan en estos artículos para reducir el campo de estudio de nuevos tratamientos. Sin embargo, llevar a cabo revisiones bibliográficas de un cuerpo de investigación relevante tan masivo y en expansión se ha convertido en una tarea imposible.

AstraZeneca, una empresa farmacéutica líder, desarrolló un Gráfico de Conocimiento de Perspectivas Biológicas (BIKG) para ayudar a los científicos en todo el proceso de descubrimiento de fármacos, desde las revisiones de la literatura hasta la calificación de aciertos en la pantalla, la identificación de objetivos y más. Este gráfico integra bases de datos públicas e internas con información de la literatura científica, modelando entre 10 millones y 1.000 millones de relaciones biológicas complejas.

BIKG se ha utilizado eficazmente para la clasificación de genes, lo que ayuda a los científicos a plantear hipótesis sobre objetivos de alto potencial para nuevos tratamientos de enfermedades. En NVIDIA GTC, el equipo de AstraZeneca presentó un proyecto que identificó con éxito genes relacionados con la resistencia en los tratamientos contra el cáncer de pulmón.

Para reducir los genes potenciales, los científicos de datos y los investigadores biológicos colaboraron para definir los criterios y las características genéticas ideales para el desarrollo de tratamientos. Entrenaron un algoritmo de machine learning para buscar en las bases de datos de BIKG genes con las características designadas mencionadas en la literatura como tratables. Utilizando NVIDIA RAPIDS para cálculos más rápidos, el equipo redujo el acervo genético inicial de 3.000 a solo 40 genes diana, una tarea que antes tomaba meses, pero que ahora toma solo segundos.

Al complementar el desarrollo de fármacos con computación acelerada e inteligencia artificial, las empresas farmacéuticas y los investigadores pueden finalmente utilizar los enormes tesoros de datos que se acumulan en el campo médico para desarrollar nuevos medicamentos de forma más rápida y segura, lo que en última instancia tendrá un impacto que salvará vidas.

Las Empresas de Servicios Públicos Construyen el Futuro de la Energía Limpia

Ha habido un impulso significativo para cambiar a fuentes de energía neutras en carbono en el sector energético. Con el costo de aprovechar los recursos renovables, como la energía solar, cayendo significativamente en los últimos 10 años, la oportunidad de lograr un progreso real hacia un futuro de energía limpia nunca ha sido mayor.

Sin embargo, este cambio hacia la integración de la energía limpia de los parques eólicos, los parques solares y las baterías domésticas ha introducido nuevas complejidades en la gestión de la red. A medida que la infraestructura energética se diversifica y se deben acomodar los flujos de energía bidireccionales, la gestión de la red se ha vuelto más intensiva en datos. Ahora se requieren nuevas redes inteligentes para manejar áreas de alto voltaje para la carga de vehículos. También deben gestionar la disponibilidad de las fuentes de energía almacenadas distribuidas y adaptarse a las variaciones de uso en toda la red.

Utilidata, una destacada empresa de software de borde de red, ha colaborado con NVIDIA para desarrollar una plataforma de IA distribuida, Karman, para el edge de la red utilizando un módulo de IA en el edge NVIDIA Jetson Orin personalizado. Este chip y plataforma personalizados, integrados en los medidores de electricidad, transforman cada medidor en un punto de recopilación y control de datos, capaz de manejar miles de puntos de datos por segundo.

Karman procesa datos de alta resolución en tiempo real de medidores en el edge de la red. Esto permite a las empresas de servicios públicos obtener información detallada sobre las condiciones de la red, predecir el uso e integrar sin problemas los recursos energéticos distribuidos en segundos, en lugar de minutos u horas. Además, con los modelos de inferencia en los dispositivos periféricos, los operadores de red pueden anticipar e identificar rápidamente los fallos de línea para predecir posibles interrupciones y realizar un mantenimiento preventivo para aumentar la fiabilidad de la red.

A través de la integración de la IA y el análisis acelerado de datos, Karman ayuda a los proveedores de servicios públicos a transformar la infraestructura existente en redes inteligentes eficientes. Esto permite una distribución de electricidad personalizada y localizada para satisfacer los patrones de demanda fluctuantes sin grandes actualizaciones de la infraestructura física, lo que facilita una modernización más rentable de la red.

Los Fabricantes de Automóviles Permiten Vehículos Autónomos Más Seguros y Accesibles

A medida que las empresas automotrices se esfuerzan por lograr capacidades completas de conducción autónoma, los vehículos deben ser capaces de detectar objetos y navegar en tiempo real. Esto requiere tareas de procesamiento de datos de alta velocidad, incluida la alimentación de datos en vivo de cámaras, lidar, radar y GPS en modelos de IA que toman decisiones de navegación para mantener las carreteras seguras.

El workflow de inferencia de conducción autónoma es complejo e incluye múltiples modelos de IA junto con los pasos necesarios de preprocesamiento y posprocesamiento. Tradicionalmente, estos pasos se manejaban en el lado del cliente mediante CPU. Sin embargo, esto puede dar lugar a importantes cuellos de botella en las velocidades de procesamiento, lo cual es un inconveniente inaceptable para una aplicación en la que un procesamiento rápido equivale a seguridad.

Para mejorar la eficiencia de los workflows de conducción autónoma, el fabricante de vehículos eléctricos NIO integró el Servidor de Inferencia NVIDIA Triton en su canal de inferencia. NVIDIA Triton es un software de código abierto, multiframework y servicio de inferencia. Al centralizar las tareas de procesamiento de datos, NIO redujo la latencia 6 veces en algunas áreas centrales y aumentó el rendimiento general de los datos hasta 5 veces.

El enfoque centrado en la GPU de NIO facilitó la actualización y el despliegue de nuevos modelos de IA sin necesidad de cambiar nada en los propios vehículos. Además, la empresa podía utilizar varios modelos de IA al mismo tiempo en el mismo conjunto de imágenes sin tener que enviar datos de un lado a otro a través de una red, lo que ahorraba costes de transferencia de datos y mejoraba el rendimiento.

Mediante el uso de un procesamiento acelerado de datos, los desarrolladores de software para vehículos autónomos se aseguran de poder alcanzar un estándar de alto rendimiento para evitar accidentes de tráfico, reducir los costes de transporte y mejorar la movilidad de los usuarios.

Los Minoristas Mejoran la Previsión de la Demanda

En el acelerado entorno minorista, la capacidad de procesar y analizar datos rápidamente es fundamental para ajustar los niveles de inventario, personalizar las interacciones con los clientes y optimizar las estrategias de precios sobre la marcha. Cuanto más grande sea un minorista y más productos tenga, más complejas y requeridas serán sus operaciones de datos.

Walmart, el minorista más grande del mundo, recurrió a la computación acelerada para mejorar significativamente la precisión de los pronósticos para 500 millones de combinaciones artículo por tienda en 4,500 tiendas.

A medida que el equipo de ciencia de datos de Walmart creó algoritmos de machine learning más robustos para hacer frente a este gigantesco desafío de previsión, el entorno de computación existente comenzó a tambalearse, con trabajos que no se completaban o generaban resultados inexactos. La compañía descubrió que los científicos de datos tenían que eliminar características de los algoritmos solo para que se ejecutaran hasta su finalización.

Para mejorar sus operaciones de previsión, Walmart comenzó a utilizar las GPU NVIDIA y RAPID. La empresa ahora utiliza un modelo de pronóstico con 350 funciones de datos para predecir las ventas en todas las categorías de productos. Estas características abarcan datos de ventas, eventos promocionales y factores externos como las condiciones climáticas y eventos importantes como el Super Bowl, que influyen en la demanda.

Los modelos avanzados ayudaron a Walmart a mejorar la precisión de los pronósticos del 94% al 97%, al tiempo que eliminaron un estimado de 100 millones de dólares en desperdicios de productos frescos y redujeron los escenarios de desabastecimiento y rebajas. Las GPU también ejecutaron modelos 100 veces más rápido con trabajos completados en solo cuatro horas, una operación que habría llevado varias semanas en un entorno de CPU.

Al trasladar las operaciones de uso intensivo de datos a las GPU y a la computación acelerada, los minoristas pueden reducir tanto sus costes como su huella de carbono, al tiempo que ofrecen las opciones más adecuadas y precios más bajos a los compradores.

El Sector Público Mejora la Preparación para Casos de Desastre

Los drones y los satélites capturan grandes cantidades de datos de imágenes aéreas que las organizaciones públicas y privadas utilizan para predecir patrones climáticos, rastrear migraciones de animales y observar cambios ambientales. Estos datos son invaluables para la investigación y la planificación, ya que permiten una toma de decisiones más informada en campos como la agricultura, la gestión de desastres y los esfuerzos para combatir el cambio climático. Sin embargo, el valor de estas imágenes puede ser limitado si carecen de metadatos de ubicación específicos.

Una agencia federal que trabaja con NVIDIA necesitaba una forma de identificar automáticamente la ubicación de las imágenes a las que les faltaban metadatos geoespaciales, lo cual es esencial para misiones como la búsqueda y el rescate, la respuesta a desastres naturales y el monitoreo del medio ambiente. Sin embargo, identificar un área pequeña dentro de una región más grande utilizando una imagen aérea sin metadatos es extremadamente difícil, similar a localizar una aguja en un pajar. Los algoritmos diseñados para ayudar con la geolocalización deben abordar las variaciones en la iluminación de la imagen y las diferencias debidas a que las imágenes se toman en varios momentos, fechas y ángulos.

Para identificar imágenes aéreas no geoetiquetadas, NVIDIA, Booz Allen y la agencia gubernamental colaboraron en una solución que utiliza algoritmos de visión por computadora para extraer información de los datos de píxeles de la imagen para escalar el problema de búsqueda de similitud de imágenes.

Al intentar resolver este problema, un arquitecto de soluciones de NVIDIA utilizó primero una aplicación basada en Python. Inicialmente ejecutándose en CPU, el procesamiento tardó más de 24 horas. Las GPU potenciaron esto a solo minutos, realizando miles de operaciones de datos en paralelo frente a solo un puñado de operaciones en una CPU. Al cambiar el código de la aplicación a CuPy, una biblioteca de código abierto acelerada por GPU, la aplicación experimentó una notable aceleración de 1,8 millones de veces, devolviendo resultados en 67 microsegundos.

Con una solución que puede procesar imágenes y datos de grandes masas de tierra en cuestión de minutos, las organizaciones pueden acceder a la información crítica necesaria para responder de forma más rápida y eficaz a las emergencias y planificar de forma proactiva, lo que podría salvar vidas y salvaguardar el medio ambiente.

Acelere las Iniciativas de IA y Ofrezca Resultados Empresariales

Las empresas que utilizan la computación acelerada para el procesamiento de datos están avanzando en iniciativas de IA y posicionándose para innovar y desempeñarse a niveles más altos que sus pares.

La computación acelerada maneja conjuntos de datos más grandes de manera más eficiente, permite un entrenamiento de modelos más rápido y la selección de algoritmos óptimos, y facilita resultados más precisos para soluciones de IA en vivo.

Las empresas que lo utilizan pueden lograr una relación precio-rendimiento superior en comparación con los sistemas tradicionales basados en CPU y mejorar su capacidad para ofrecer resultados y experiencias sobresalientes a clientes, empleados y socios.

Descubra cómo la computación acelerada ayuda a las organizaciones a alcanzar los objetivos de IA e impulsar la innovación.