Como un Truco de Magia: Aumenta la Adopción de NVIDIA Merlin para Tareas de Entrenamiento e Inferencia

La Internet se está volviendo más personalizada y se ejecuta en plataformas de IA de NVIDIA para GPU, lo que impulsa empresas como Snap, Postmates y Tencent.
por Even Oldridge

Los recomendadores personalizan Internet. Sugieren videos, comidas, zapatillas y anuncios que parecen mágicamente clarividentes al conocer tus gustos e intereses.

Es una IA que hace que las experiencias en línea sean más agradables y eficientes, y te lleva rápidamente a las cosas que deseas ver. Mientras te ofrece contenido que te gusta, también se enfoca en anuncios tentadores para jeans o recomienda platos reconfortantes que se adaptan a esos antojos de medianoche.

Pero no todos los sistemas de recomendación pueden manejar los requisitos de datos para hacer sugerencias más inteligentes. Eso provoca un entrenamiento más lento y experiencias de usuario de Internet menos intuitivas.

NVIDIA Merlin potencia los recomendadores, ya que acelera el entrenamiento y la inferencia. Los líderes en medios, entretenimiento y entrega bajo demanda utilizan el framework de recomendación de código abierto para ejecutar deep learning acelerado en las GPU. Mejorar las recomendaciones aumenta los clics, las compras y la satisfacción.

Recomendados Acelerados por Merlin

NVIDIA Merlin permite a las empresas de todo tipo crear recomendaciones aceleradas por las GPU de NVIDIA.

Su colección de bibliotecas incluye herramientas para desarrollar sistemas basados en deep learning que brindan mejores predicciones que los métodos tradicionales y aumentan los clics. Cada etapa del proceso está optimizada para admitir cientos de terabytes de datos, todos accesibles a través de API fáciles de usar.

Merlin se prueba en cientos de empresas de todo el mundo. Los servicios de videos y redes sociales lo están evaluando para obtener sugerencias sobre las próximas vistas y anuncios. Y las principales aplicaciones a pedido y los comercios minoristas lo implementan para generar sugerencias sobre nuevos artículos para comprar.

Vídeos con Snap

Snap usa Merlin para lograr mejores tiempos de carga en la experiencia del cliente, ya que clasifica el contenido y los anuncios un 60% más rápido y, al mismo tiempo, reduce sus costos de infraestructura. El uso de las GPU y Merlin proporciona a Snap una capacidad de computación adicional para explorar modelos de clasificación más complejos y precisos. Estas mejoras permiten que Snap brinde experiencias aún más atractivas a un costo menor.

Tencent: Anuncios Adecuados

La principal plataforma de medios de video en línea de China utiliza Merlin HugeCTR para ayudar a conectar a más de 500 millones de usuarios activos mensuales con anuncios que son relevantes y atractivos. Con un conjunto de datos tan grande, la velocidad de entrenamiento es importante y determina el rendimiento del modelo de recomendación. Tencent implementó su entrenamiento en tiempo real con Merlin y logró una aceleración de más de 7 veces con respecto a la solución TensorFlow original en la misma plataforma de GPU. Tencent analiza este proceso en detalle en su presentación de GTC.

Recomendaciones Culinarias de Postmates

Merlin se diseñó para agilizar y respaldar los workflows de los recomendadores. Postmates utiliza recomendaciones para ayudar a las personas a decidir qué hay para cenar. Postmates utiliza Merlin NVTabular para optimizar el tiempo de entrenamiento y lo reduce de 1 hora en CPU a solo 5 minutos en GPU.

Usando NVTabular para la ingeniería de funciones, la compañía redujo los costos de capacitación en un 95 por ciento y está explorando modelos de deep learning más avanzados. Postmates analiza este proceso en detalle en su presentación de GTC.

Merlin Agiliza los Workflows de Recomendación a Escala

Como Merlin es interoperable, proporciona flexibilidad para acelerar las procesos de workflows de los recomendadores.

La versión beta abierta del motor de recomendaciones Merlin ofrece avances en la carga de datos y el entrenamiento de los sistemas de deep learning.

NVTabular reduce el tiempo de preparación de datos, dado que acelera con GPU las transformaciones de funciones y el preprocesamiento. NVTabular, que facilita la carga de enormes lagos de datos en los procesos de entrenamiento, ahora es compatible con múltiples GPU y ofrece una interoperabilidad mejorada con TensorFlow y PyTorch.

La Magia de Merlin para el Entrenamiento

Merlin HugeCTR es el principal componente de entrenamiento. Se diseñó para entrenar sistemas de recomendación de deep learning e incluye su propio cargador de datos optimizado, por lo que supera ampliamente a los frameworks genéricos de deep learning. HugeCTR proporciona un lector de datos de parquet para incorporar los datos preprocesados de NVTabular. HugeCTR es un framework de entrenamiento de redes neuronales profundas, que se diseñó específicamente para workflows de recomendadores, ya que permite distribuir el entrenamiento en múltiples GPU y nodos para obtener el máximo rendimiento.

Lo Servidor de Inferencia NVIDIA Triton aceleran la inferencia de producción en GPU para la transformación de funciones y la ejecución de redes neuronales.

Obtén más información sobre los avances tecnológicos de Merlin desde su lanzamiento inicial, incluido su compatibilidad con NVTabular, HugeCTR y Servidor de Inferencia NVIDIA Triton.