Vía Rápida hacia la IA Empresarial: El Nuevo Workflow de NVIDIA Permite que Cualquier Usuario Elija, Adapte e Implemente Modelos Fácilmente

El trayecto hacia la empresa impulsada por la inteligencia artificial no tiene por qué ser largo o arduo si sabes cómo aprovechar modelos y herramientas previamente entrenados, como NVIDIA TAO y Fleet Command.
por Adel El Hallak

La IA es la nueva tecnología más poderosa de nuestro tiempo. Sin embargo, ha sido una fuerza difícil de aprovechar para muchas empresas, hasta ahora.

Muchas empresas carecen de las habilidades especializadas, el acceso a grandes conjuntos de datos o la computación acelerada que requiere el deep learning. Otras se están dando cuenta de los beneficios de la IA y quieren difundirlos rápidamente entre más productos y servicios.

Para ambos casos, hay una nueva hoja de ruta para la IA empresarial. Aprovecha la tecnología que está disponible y luego simplifica el workflow de IA con NVIDIA TAO y NVIDIA Fleet Command para hacer que el trayecto sea más corto y menos costoso.

Modelos de IA Listos para Usar

El viaje comienza con los modelos previamente entrenados. En 2021, ya no es necesario diseñar y entrenar una red neuronal desde cero. Puedes elegir una de las muchas redes disponibles en nuestro catálogo NGC.

Hemos seleccionado modelos que brindan habilidades para hacer avanzar tus negocio.  Abarcan todo el espectro de trabajos de IA, desde la visión de computación y la IA conversacional hasta la comprensión de idiomas naturales y más.

Los Modelos Muestran sus Currículums de IA

Para que los usuarios sepan lo que obtienen, muchos modelos del catálogo incluyen credenciales. Son como el currículum de una posible contratación.

Las credenciales del modelo te muestran el dominio para el que se entrenó el modelo, el conjunto de datos que lo entrenó, la frecuencia con la que se implementó el modelo y cómo se espera que funcione. Proporcionan la transparencia y la confianza de que estás eligiendo el modelo adecuado para tu caso de uso.

Aprovechar una Enorme Inversión

NVIDIA invirtió cientos de millones de horas de procesamiento de GPU durante más de cinco años perfeccionando estos modelos. Hicimos este trabajo para que no tengas que hacerlo.

A continuación, se muestran tres ejemplos rápidos de I+D que puedes aprovechar:

Para la visión de computación, dedicamos 3,700 personas-año a etiquetar 500 millones de objetos de 45 millones de marcos. Usamos grabaciones de voz para entrenar nuestros modelos de voz en GPU durante más de un millón de horas. Una base de datos de artículos académicos sobre biomedicina con 6,100 millones de palabras educó a nuestros modelos para el procesamiento de idiomas naturales.

Aprendizaje de Transferencia, Tu Sastre de IA

Una vez que elijas un modelo, puedes ajustarlo para que se adapte a tus necesidades específicas utilizando NVIDIA TAO, la siguiente etapa de nuestro workflow acelerado para la IA empresarial.

TAO permite el aprendizaje por transferencia, un proceso que recolecta características de una red neuronal existente y las planta en una nueva usando el Kit de Herramientas de Aprendizaje de Transferencia de NVIDIA, una parte integrada de TAO. Aprovecha los pequeños conjuntos de datos que los usuarios tienen a mano para dar a los modelos un ajuste personalizado sin el costo, el tiempo ni los enormes conjuntos de datos que se necesitan para construir y entrenar una red neuronal desde cero.

A veces, las empresas tienen la oportunidad de mejorar aún más los modelos entrenándolos con conjuntos de datos más grandes y diversos mantenidos por socios fuera de las paredes de su data center.

TAO Permite que los Socios Colaboren con Privacidad

El aprendizaje federado, otra parte de TAO, permite que diferentes sitios colaboren de forma segura para refinar un modelo y así obtener la mayor precisión. Con esta técnica, los usuarios comparten componentes de modelos como sus ponderaciones parciales. Los conjuntos de datos permanecen dentro del data center de cada empresa para preservar su privacidad.

En un ejemplo reciente, 20 sitios de investigación colaboraron para aumentar la precisión del llamado modelo EXAM que predice si un paciente tiene COVID-19. Después de aplicar el aprendizaje federado, el modelo también podría predecir la gravedad de la infección y si el paciente necesitara oxígeno suplementario. Los datos de los pacientes permanecieron seguros dentro de los sistemas de cada socio.

Implementar la IA Empresarial en la Producción

Una vez que se ajusta el modelo, es necesario optimizarlo para su implementación.

Es un proceso de recorte que hace que los modelos sean ligeros, pero robustos, para que funcionen de manera eficiente en su plataforma de destino, ya sea una matriz de GPU en un servidor o un robot impulsado por Jetson en la fábrica.

NVIDIA TensorRT, otra parte de TAO, marca las coordenadas matemáticas de un modelo, lo que permite lograr un equilibrio óptimo del tamaño más pequeño con la mayor precisión para el sistema en el que se ejecutará. Es un paso crucial, especialmente para servicios en tiempo real, como el reconocimiento de voz o la detección de fraudes, que no tolerarán la latencia del sistema.

Luego, con el Servidor de Inferencia Triton, los usuarios pueden seleccionar la configuración óptima para implementar, sea cual sea la arquitectura del modelo, el framework que utiliza o la CPU o GPU de destino en la que se ejecutará.

Una vez que un modelo está optimizado y listo para su implementación, los usuarios pueden integrarlo fácilmente con cualquier framework de aplicaciones que se adapte a su caso de uso o industria. Por ejemplo, podría ser Jarvis para la IA conversacional, Clara para la area de la salud, Metropolis para el análisis de videos o Isaac para la robótica, por nombrar solo algunos de los que ofrece NVIDIA.

NGC TAO Fleet Command AI workflow
Modelos previamente entrenados en NGC, junto con TAO y Fleet Command, para lograr un workflow de IA simple pero poderoso.

Con el framework de aplicaciones elegido, los usuarios pueden iniciar NVIDIA Fleet Command para implementar y administrar la aplicación de IA en una variedad de dispositivos impulsados por GPU. Es el último paso clave del trayecto.

De Cero a IA en Minutos

Fleet Command conecta los Servidores Certificados por NVIDIA implementados en el edge de la red al cloud. Con él, los usuarios pueden trabajar desde un navegador para vincular, organizar y administrar de forma segura millones de servidores, implementar la IA en cualquier ubicación remota y actualizar el software según sea necesario.

Los administradores monitorean el estado y actualizan los sistemas con un solo clic para simplificar las operaciones de IA a escala.

Fleet Command utiliza protocolos de seguridad integrales para garantizar que los datos de las aplicaciones y la propiedad intelectual permanezcan seguros.

Los datos se envían entre el edge y el cloud, completamente encriptados, lo que garantiza que estén protegidos. Además, las aplicaciones se analizan en busca de malware y vulnerabilidades antes de su implementación.

Un Workflow de IA que se Ocupa del Trabajo

Fleet Command y los elementos de TAO ya se utilizan en almacenes, tiendas minoristas, hospitales y fábricas. Los usuarios incluyen empresas como Accenture, BMW y Siemens Digital Industries.

La demostración (que se encuentra a continuación) de la presentación de apertura de GTC muestra cómo la combinación sencilla de modelos de NGC, TAO y Fleet Command puede adaptar e implementar rápidamente una aplicación utilizando múltiples modelos de IA.

Puedes registrarte para usar Fleet Command hoy mismo.

Las partes centrales de TAO, como Kit de Herramientas de Aprendizaje de Transferencia y el aprendizaje federado, ya están disponibles. Solicita ahora el acceso anticipado a todos estos componentes, totalmente integrados en TAO.