A pesar de valer poco más de tres billones de dólares, Nvidia está nerviosa.

El fabricante de GPU, una de las empresas más valiosas del mundo, ha experimentado un rápido ascenso en los últimos dos años sobre cimientos inestables: si bien sus chips están en el corazón de la revolución de la IA, los hyperscaers en los que Nvidia confía como sus clientes más importantes también son sus mayores rivales.

Amazon Web Services, Microsoft y Google están desarrollando sus propios chips de inteligencia artificial en busca de ahorrar costos y encontrar una ventaja única.

Al mismo tiempo, esas mismas compañías de la nube están preparadas para ganar más dinero con las GPU que Nvidia les vende alquilándolas a clientes finales: el diseñador de chips ha afirmado que, por cada dólar que un proveedor de la nube gasta en comprar una GPU, recupera cinco en cuatro años.

En teoría, Nvidia podría prescindir del intermediario y simplemente ofrecer GPU a través de su propio servicio en la nube, acaparando todos los beneficios. Pero, más allá de las preocupaciones regulatorias, eso supondría el riesgo de alienar por completo a sus principales clientes y costaría decenas de miles de millones de dólares ponerlo en marcha.

En lugar de ello, la empresa está intentando crear una tercera opción: una nube dentro de una nube.

El año pasado, Nvidia anunció "DGX Cloud", un servicio ofrecido sobre las plataformas de nube de otras empresas. Los proveedores de la nube alquilan los servidores de Nvidia y los implementan como una nube que Nvidia puede comercializar y vender a empresas que buscan supercomputadoras con GPU de gran tamaño.

Google, Microsoft y Oracle aceptaron la propuesta desde el principio, pero AWS se mantuvo firme hasta diciembre, cuando finalmente cedió. Los hyperscalers han guardado silencio sobre el acuerdo exacto y ninguno promociona el servicio en sus propios sitios web.

En cambio, DGX Cloud podría verse como una forma en la que Nvidia utiliza la demanda desesperada de sus GPU como una forma de crear un espacio para sí misma en la nube, aprovechando su posición en el mercado para captar parte de los ingresos por servicios y desarrollar relaciones directas con los usuarios finales.

"No lo caracterizaría como un caballo de Troya en absoluto", dijo a DCD el director de DGX Cloud y ex vicepresidente de infraestructura de Meta, Alexis Bjorlin en el evento GTC de Nvidia de marzo.

“Se trata de una colaboración profunda”, afirma repetidamente durante la entrevista. “Lo que estamos haciendo es trabajar en estrecha colaboración con los proveedores de servicios en la nube (CSP)”.

En su informe de resultados de mayo de 2024, Nvidia afirmó que se había comprometido a invertir al menos 9.000 millones de dólares en servicios de computación en la nube durante los próximos años, frente a un compromiso de 4.500 millones de dólares en enero. Esa cifra incluye DGX Cloud, lo que sugiere una rápida expansión de la iniciativa.

“DGX Cloud es una oportunidad para que todos los proveedores de servicios de comunicaciones tengan acceso a la última tecnología de Nvidia”, afirma Bjorlin. “Si nos alejamos de todo esto y pensamos en la experiencia del usuario final, nos damos cuenta de que se trata de una capacidad completa”.

En lugar de ser un intento de Nvidia de crear un negocio en la nube, Bjorlin dice que el objetivo de DGX Cloud era proporcionar "una experiencia integral. Tenemos una plataforma completa como un conjunto de software de servicio, ofrecemos un servicio de fundición de IA".

Y añade: “Muchos de nuestros clientes quieren invertir su software y su experiencia en IA/ML en el desarrollo de aplicaciones, no necesariamente en la gestión de la infraestructura subyacente (que se puede pensar que es un elemento del proveedor de servicios en la nube), sino en la infraestructura de IA. Creo que ahí es donde DGX Cloud ofrece algo que se diferencia de forma única: estamos llegando a los clientes dondequiera que se encuentren en su recorrido”.

Los clientes “tendrán acceso a todos los expertos internos de Nvidia que tenemos en optimización de modelos, optimización del tiempo de ejecución o lo que sea”, afirma. “Creo que la gente busca algo que sea un poco más fácil de consumir para poder centrarse en desarrollar sus propias aplicaciones generadoras de ingresos en lugar de en un centro de costes”.

Esos clientes acuden a Nvidia y pagan precios establecidos por la empresa, a pesar de que el hardware subyacente opera en centros de datos CSP.

El CSP sigue siendo importante, ya que el cliente suele utilizar uno de ellos para servicios que no son de DGX. “Normalmente, los clientes vienen con opiniones muy firmes”, afirma Bjorlin. “Tienen sus datos en algún lugar, la gravedad de los datos es un aspecto importante aquí. Sí, las tarifas de salida están bajando o disminuyendo”.

Bjorlin es un tanto contradictoria sobre el grado de participación de Nvidia a la hora de recomendar qué CSP deberían usar los clientes: "No hacemos recomendaciones sobre qué nube usar, pero podemos compartir dónde creemos que se maximizará el rendimiento", dice.

La empresa trabaja con cada CSP para construir su versión de DGX Cloud, a veces con características únicas.

"Con AWS, anunciamos que trabajaríamos con su EFA [redes] y su sistema Nitro", afirma Bjorlin. La empresa planea implementar 16.384 GPU para DGX Cloud, además de miles más directamente a través de AWS.

“Con OCI [la nube de Oracle], en ese caso de DGX Cloud en Blackwell, será con InfiniBand, lo que supone un cambio con respecto a lo que han hecho en el pasado”, continuó Bjorlin. “Así que ese fue el resultado de nuestra ingeniería conjunta para determinar cuál sería la experiencia y la capacidad óptimas para esta generación.

Nvidia
– Sebastian Moss

“Estamos desarrollando la capacidad de integrarnos profundamente con los CSP, ya sea en sus servicios o en su infraestructura real, para que podamos optimizar la solución en todos los ámbitos”.

Bjorlin afirma que estas decisiones son "suyas; nada es obligatorio. Estamos dispuestos a trabajar con los CSP en lo que es su plataforma y optimizarla. Ellos toman sus propias decisiones sobre cómo abordar la experiencia del usuario final".

El año pasado, The Information publicó que Nvidia había hablado con al menos un centro de datos sobre el alquiler de su propio espacio para ejecutar DGX Cloud, pero Bjorlin se negó a hacer comentarios y dijo que la compañía estaba enfocada en trabajar con los CSP en una "asociación profunda".

“Somos una plataforma que está por encima de todas las nubes; lo que también ofrecemos es experiencia y utilización, entendiendo la carga de trabajo del cliente, su flujo de trabajo de extremo a extremo y haciendo recomendaciones”, afirma.

Esto es necesario para el desarrollo futuro de la IA, sostiene. "Un modelo puede cambiar. Cuando se pasa a una mezcla de expertos, se imponen diferentes tensiones en la red y cambia el rendimiento de las cargas de trabajo.

“DGX Cloud trata de abarcar el conjunto más amplio de hacia dónde evolucionará la IA, para asegurarnos de que estamos diseñando para eso, de modo que, en última instancia, las GPU de Nvidia sean el punto de aterrizaje definitivo para cualquiera de estas cargas de trabajo de IA”.