NVIDIA y Google Cloud han anunciado una nueva colaboración para ayudar a las startups de todo el mundo a acelerar la creación de aplicaciones y servicios de IA generativa.
El anuncio, realizado en Google Cloud Next ’24 en Las Vegas, reúne el programa NVIDIA Inception para startups y el programa Google for Startups Cloud para ampliar el acceso a créditos en la nube, soporte de comercialización y experiencia técnica para ayudar a las startups a ofrecer valor a los clientes más rápido.
Los miembros calificados de NVIDIA Inception, un programa global que apoya a más de 18,000 startups, tendrán un camino acelerado para usar la infraestructura de Google Cloud con acceso a créditos de Google Cloud, ofreciendo hasta $ 350,000 para aquellos enfocados en IA.
Los miembros del programa Google for Startups Cloud pueden unirse a NVIDIA Inception y obtener acceso a conocimientos tecnológicos, créditos de cursos del NVIDIA Deep Learning Institute, hardware y software de NVIDIA, y mucho más. Los miembros elegibles del programa Google for Startups Cloud también pueden participar en NVIDIA Inception Capital Connect, una plataforma que brinda a las startups exposición a empresas de capital de riesgo interesadas en el espacio.
Los fabricantes de software emergentes de alto crecimiento de ambos programas también pueden obtener una incorporación rápida a Google Cloud Marketplace, marketing conjunto y soporte de aceleración de productos.
Esta colaboración es la última de una serie de anuncios que las dos compañías han hecho para ayudar a aliviar los costos y las barreras asociadas con el desarrollo de aplicaciones de IA generativa para empresas de todos los tamaños. Las startups, en particular, se ven limitadas por los altos costos asociados con las inversiones en IA.
Se Necesita Una Plataforma de IA de Pila Completa
En febrero, Google DeepMind presentó Gemma, una familia de modelos abiertos de última generación. NVIDIA, en colaboración con Google, lanzó recientemente optimizaciones en todas las plataformas de IA de NVIDIA para Gemma, lo que ayuda a reducir los costos de los clientes y acelerar el trabajo innovador para casos de uso específicos del dominio.
Los equipos de las empresas trabajaron en estrecha colaboración para acelerar el rendimiento de Gemma, creado a partir de la misma investigación y tecnología utilizada para crear el modelo más capaz de Google DeepMind hasta la fecha, Gemini, con NVIDIA TensorRT-LLM, una biblioteca de código abierto para optimizar la inferencia de grandes modelos de lenguaje, cuando se ejecuta en GPU NVIDIA.
Los microservicios NVIDIA NIM, que forman parte de la plataforma de software NVIDIA AI Enterprise, junto con Google Kubernetes Engine (GKE) proporcionan una ruta optimizada para desarrollar aplicaciones impulsadas por IA e implementar modelos de IA optimizados en producción. Basado en motores de inferencia que incluyen el Servidor de Inferencia NVIDIA Triton y TensorRT-LLM, NIM es compatible con una amplia gama de modelos de IA líderes y ofrece inferencia de IA escalable y sin problemas para acelerar la implementación de IA generativa en las empresas.
La familia de modelos Gemma, que incluye Gemma 7B, RecurrentGemma y CodeGemma, está disponible en el catálogo de API de NVIDIA para que los usuarios la prueben desde un navegador, creen prototipos con los puntos finales de la API y se alojen automáticamente con NIM.
Google Cloud ha facilitado la implementación del framework NVIDIA NeMo en su plataforma a través de GKE y Google Cloud HPC Toolkit. Esto permite a los desarrolladores automatizar y escalar el entrenamiento y el servicio de modelos de IA generativa, lo que les permite implementar rápidamente entornos llave en mano a través de planos personalizables que ponen en marcha el proceso de desarrollo.
NVIDIA NeMo, parte de NVIDIA AI Enterprise, también está disponible en Google Cloud Marketplace, lo que brinda a los clientes otra forma de acceder fácilmente a NeMo y otros frameworks para acelerar el desarrollo de IA.
Para ampliar aún más la disponibilidad de la computación de IA generativa acelerada por NVIDIA, Google Cloud también anunció que la disponibilidad general de A3 Mega llegará el próximo mes. Las instancias son una expansión de su familia de máquinas virtuales A3, con tecnología de GPU NVIDIA H100 Tensor Core. Las nuevas instancias duplicarán el ancho de banda de red de GPU a GPU de las máquinas virtuales A3.
Las nuevas máquinas virtuales confidenciales de Google Cloud en A3 también incluirán compatibilidad con la computación confidencial para ayudar a los clientes a proteger la confidencialidad e integridad de sus datos confidenciales y proteger las aplicaciones y las cargas de trabajo de IA durante el entrenamiento y la inferencia, sin cambios de código mientras se accede a la aceleración de GPU H100. Estas máquinas virtuales confidenciales con tecnología de GPU estarán disponibles en versión preliminar este año.
A Continuación: GPU Basadas en NVIDIA Blackwell
Las nuevas GPU de NVIDIA basadas en la plataforma NVIDIA Blackwell llegarán a Google Cloud a principios del próximo año en dos variaciones: la NVIDIA HGX B200 y la NVIDIA GB200 NVL72.
La HGX B200 está diseñada para las cargas de trabajo más exigentes de IA, análisis de datos y computación de alto rendimiento, mientras que la GB200 NVL72 está diseñada para el entrenamiento de modelos de billones de parámetros, la próxima frontera y la escala masiva y la inferencia en tiempo real.
La NVIDIA GB200 NVL72 conecta 36 superchips Grace Blackwell, cada uno con dos GPU NVIDIA Blackwell combinadas con una CPU NVIDIA Grace a través de una interconexión de chip a chip de 900 GB/s, que admite hasta 72 GPU Blackwell en un dominio NVIDIA NVLink y 130 TB/s de ancho de banda. Supera los cuellos de botella de comunicación y actúa como una sola GPU, ofreciendo una inferencia de LLM en tiempo real 30 veces más rápida y un entrenamiento 4 veces más rápido en comparación con la generación anterior.
NVIDIA GB200 NVL72 es un sistema de escala de rack de varios nodos que se combinará con la cuarta generación de sistemas avanzados de refrigeración líquida de Google Cloud.
NVIDIA anunció el mes pasado que NVIDIA DGX Cloud, una plataforma de IA para desarrolladores empresariales que está optimizada para las demandas de la IA generativa, está disponible de forma general en máquinas virtuales A3 con GPU H100. DGX Cloud con GB200 NVL72 también estará disponible en Google Cloud en 2025.