En Tu Microservicio: NVIDIA Facilita el Camino de las Empresas Hacia la IA Generativa

NVIDIA AI Enterprise 5.0 incluye API en la nube para inferencia y otros servicios, lo que allana el camino para las aplicaciones impulsadas por IA.
por Anne Hecht

La plataforma de IA de NVIDIA está disponible para cualquier empresa con visión de futuro, y es más fácil de usar que nunca.

Lanzado hoy, NVIDIA AI Enterprise 5.0 incluye microservicios de NVIDIA, contenedores de software descargables para implementar aplicaciones de IA generativa y computación acelerada. Está disponible en los principales proveedores de servicios en la nube, constructores de sistemas y proveedores de software, y está en uso en clientes como Uber.

«Nuestra adopción del software de inferencia NVIDIA AI Enterprise es importante para alcanzar el alto rendimiento que esperan nuestros usuarios», dijo Albert Greenberg, vicepresidente de ingeniería de plataformas de Uber. «Uber se enorgullece de estar a la vanguardia de la adopción y el uso de las últimas y más avanzadas innovaciones de IA para ofrecer una plataforma de servicio al cliente que establece el estándar de la industria para la efectividad y la excelencia».

Microservicios Acelera el Desarrollo de Aplicaciones

Los desarrolladores están recurriendo a los microservicios como una forma eficiente de crear aplicaciones empresariales modernas a escala global. Al trabajar desde un navegador, utilizan API en la nube, o interfaces de programación de aplicaciones, para componer aplicaciones que pueden ejecutarse en sistemas y servir a usuarios de todo el mundo.

NVIDIA AI Enterprise 5.0 ahora incluye una amplia gama de microservicios: NVIDIA NIM para implementar modelos de IA en producción y la  colección de microservicios NVIDIA CUDA-X que incluye NVIDIA cuOpt.

Los microservicios de NIM optimizan la inferencia para docenas de modelos de IA populares de NVIDIA y su ecosistema de socios.

Con la tecnología del software de inferencia NVIDIA, que incluye el Servidor de Inferencia Triton, TensorRT y TensorRT-LLM, NIM reduce los tiempos de implementación de semanas a minutos. Proporciona seguridad y capacidad de administración basadas en los estándares de la industria, así como compatibilidad con herramientas de administración de nivel empresarial.

NVIDIA cuOpt es un microservicio de IA acelerado por GPU que ha establecido récords mundiales en la optimización de rutas y puede potenciar la toma de decisiones dinámicas que reducen los costes, el tiempo y la huella de carbono. Es uno de los microservicios CUDA-X que ayudan a las industrias a poner la IA en producción.

Se están desarrollando más capacidades. Por ejemplo, el operador NVIDIA RAG LLM, ahora en acceso anticipado y descrito con más detalle aquí , moverá los copilotos y otras aplicaciones de IA generativa que utilizan la generación aumentada de recuperación de la fase de pruebas a la producción sin reescribir ningún código.

Los microservicios de NVIDIA están siendo adoptados por los principales proveedores de aplicaciones y plataformas de ciberseguridad, incluidos CrowdStrike, IBM, SAP y ServiceNow.

Más Herramientas y Funciones

Vale la pena señalar otras tres actualizaciones en la versión 5.0.

La plataforma ahora incluye NVIDIA AI Workbench, un kit de herramientas para desarrolladores para descargar, personalizar y ejecutar rápidamente proyectos de IA generativa. El software ya está disponible de forma general y es compatible con una licencia de NVIDIA AI Enterprise.

La versión 5.0 ahora también es compatible con la Plataforma Red Hat OpenStack, el entorno que la mayoría de las empresas de la lista Fortune 500 utilizan para crear servicios de nube pública y privada. Mantenido por Red Hat, proporciona a los desarrolladores una opción familiar para crear entornos virtuales de computación. IBM Consulting ayudará a los clientes a desplegar estas nuevas capacidades.

Además, la versión 5.0 amplía el soporte para cubrir una amplia gama de las últimas GPU, hardware de red y software de virtualización de NVIDIA.

Disponible para Funcionar en Cualquier Lugar

El acceso a la plataforma de IA mejorada de NVIDIA es más fácil que nunca.

Los microservicios NIM y CUDA-X y todas las características 5.0 estarán disponibles pronto en los marketplaces de AWS, Google Cloud, Microsoft Azure y Oracle Cloud.

Para aquellos que prefieren ejecutar código en sus propios data centers, VMware Private AI Foundation con NVIDIA dará soporte al software, para que pueda implementarse en los data centers virtualizados de los clientes de Broadcom.

Las empresas tienen la opción de ejecutar NVIDIA AI Enterprise en Red Hat OpenShift, lo que les permite implementar en entornos bare metal o virtualizados. También es compatible con Canonical Ubuntu y Charmed Kubernetes.

Además, la plataforma de IA formará parte del software disponible en los servidores HPE ProLiant de Hewlett Packard Enterprise (HPE). La solución de computación empresarial de HPE para IA generativa gestiona la inferencia y el ajuste fino de modelos  mediante NVIDIA AI Enterprise.

Además, Anyscale, Dataiku y DataRobot, tres proveedores líderes de software para la gestión de operaciones de machine learning (MLOps), admitirán NIM en sus plataformas. Se unen a un ecosistema de NVIDIA de cientos de socios de MLOps, incluidos Microsoft Azure Machine Learning, Dataloop AI, Domino Data Lab y Weights & Biases.

Independientemente de cómo accedan a él, los usuarios de NVIDIA AI Enterprise 5.0 pueden beneficiarse de un software seguro, listo para la producción y optimizado para el rendimiento. Se puede implementar de manera flexible para aplicaciones en el data center, la nube, en workstations o en el edge de la red.

NVIDIA AI Enterprise está disponible a través de los principales proveedores de sistemas, incluidos Cisco, Dell Technologies, HP, HPE, Lenovo y Supermicro.

Escuche Historias de Éxito en GTC

Los usuarios compartirán sus experiencias con el software en NVIDIA GTC, una conferencia global de IA, que se llevará a cabo del 18 al 21 de marzo en el Centro de Convenciones de San José.

Por ejemplo,  el director de información digital de ServiceNow, Chris Bedi, hablará en un panel sobre cómo aprovechar el potencial de la IA generativa. En una charla separada, el vicepresidente de productos de IA de ServiceNow, Jeremy Barnes, hablará sobre el uso de NVIDIA AI Enterprise para lograr la máxima productividad de los desarrolladores.

Ejecutivos de BlackRock, Medtronic, SAP y Uber hablarán sobre su trabajo en finanzas, área de la salud, software empresarial y operaciones comerciales utilizando la plataforma IA de NVIDIA.

Además, los ejecutivos de ControlExpert, un proveedor global de aplicaciones para compañías de seguros de automóviles con sede en Alemania, compartirán cómo desarrollaron una solución de gestión de siniestros impulsada por IA utilizando el software NVIDIA AI Enterprise.

Se encuentran entre un creciente conjunto de empresas que se benefician del trabajo de NVIDIA evaluando cientos de proyectos de IA generativa internos y externos, todos integrados en un solo paquete que ha sido probado para garantizar su estabilidad y seguridad.

Y obtén la visión completa del CEO y fundador de NVIDIA, Jensen Huang, en su discurso de apertura de GTC .