OpenAI y NVIDIA anunciaron recientemente una asociación histórica de infraestructura de IA, una iniciativa que ampliará la computación de OpenAI con data centers de varios gigavatios impulsados por millones de GPU NVIDIA.
Para discutir lo que esto significa para la próxima generación de desarrollo e implementación de IA, los directores ejecutivos de las dos compañías y el presidente de OpenAI hablaron recientemente con Jon Fortt de CNBC.
«Este es el proyecto de infraestructura de IA más grande de la historia», dijo el fundador y CEO de NVIDIA, Jensen Huang, en la entrevista. «Esta asociación trata de construir una infraestructura de IA que permita que la IA pase de los laboratorios al mundo».
A través de la asociación, OpenAI desplegará al menos 10 gigavatios de sistemas NVIDIA para la infraestructura de IA de próxima generación de OpenAI, incluida la plataforma NVIDIA Vera Rubin. NVIDIA también tiene la intención de invertir hasta $100 mil millones en OpenAI progresivamente a medida que se implementa cada gigavatio.
«No hay otro socio que NVIDIA que pueda hacer esto a este tipo de escala, a este tipo de velocidad», dijo Sam Altman, CEO de OpenAI.
Las fábricas de IA de un millón de GPU construidas a través de este acuerdo ayudarán a OpenAI a satisfacer las demandas de entrenamiento e inferencia de su próxima frontera de modelos de IA.
«Construir esta infraestructura es fundamental para todo lo que queremos hacer», dijo Altman. «Este es el combustible que necesitamos para impulsar la mejora, impulsar mejores modelos, impulsar los ingresos, impulsar todo».

Creación de Una Infraestructura de Un Millón de GPU Para Satisfacer la Demanda de IA
Desde el lanzamiento de ChatGPT de OpenAI, que en 2022 se convirtió en la aplicación más rápida de la historia en alcanzar los 100 millones de usuarios, la compañía ha aumentado su base de usuarios a más de 700 millones de usuarios activos semanales y ha brindado capacidades cada vez más avanzadas, incluido el soporte para IA basada en agentes, razonamiento de IA, datos multimodales y ventanas de contexto más largas.
Para respaldar su próxima fase de crecimiento, la infraestructura de IA de la compañía debe ampliarse para satisfacer no solo las demandas de entrenamiento sino también las de inferencia de los modelos más avanzados para los usuarios de IA de razonamiento y basada en agentes en todo el mundo.
«El costo por unidad de inteligencia seguirá cayendo y cayendo y cayendo, y creemos que eso es genial», dijo Altman. «Por otro lado, la frontera de la IA, la máxima capacidad intelectual, está subiendo y subiendo. Y eso permite un uso cada vez mayor, y mucho».
Sin suficientes recursos computacionales, explicó Altman, las personas tendrían que elegir entre casos de uso impactantes, por ejemplo, investigar una cura para el cáncer u ofrecer educación gratuita.
«Nadie quiere tomar esa decisión», dijo. «Y así, cada vez más, a medida que vemos esto, la respuesta es simplemente mucha más capacidad para que podamos atender la enorme necesidad y oportunidad».
El primer gigavatio de sistemas NVIDIA construidos con GPU NVIDIA Vera Rubin generará sus primeros tokens en la segunda mitad de 2026.

La asociación amplía una colaboración de larga data entre NVIDIA y OpenAI, que comenzó con Huang entregando personalmente el primer sistema NVIDIA DGX a la compañía en 2016.
«Esto es mil millones de veces más poder computacional que ese servidor inicial», dijo Greg Brockman, presidente de OpenAI. «Somos capaces de crear nuevos avances, nuevos modelos… para empoderar a cada individuo y empresa porque podremos alcanzar el siguiente nivel de escala».
Huang enfatizó que, aunque este es el comienzo de una construcción masiva de infraestructura de IA en todo el mundo, es solo el comienzo.
«Literalmente vamos a conectar la inteligencia a cada aplicación, a cada caso de uso, a cada dispositivo, y solo estamos al principio», dijo Huang. «Estos son los primeros 10 gigavatios, se lo aseguro».
Mira la entrevista de CNBC a continuación.


