El auge de la IA ha revolucionado el sector de los centros de datos, forzando un cambio rápido hacia racks refrigerados por líquido a medida que las instalaciones pasan de racks de menos de 10 kW a racks de 120 kW.

Ese cambio drástico por sí solo ha provocado una profunda disrupción en un sector que históricamente se ha movido a un ritmo cauteloso, pero recientemente, en su conferencia de desarrolladores GTC, Nvidia trazó un camino hacia un objetivo aún más ambicioso: racks de 600 kW para fines de 2027.

"La razón por la que comunicamos al mundo cuál es la hoja de ruta de Nvidia para los próximos tres o cuatro años es para que todos los demás se puedan planificar", explica Huang a DCD.

Somos la primera empresa tecnológica de la historia en anunciar cuatro generaciones de algo. Es como decir: "Voy a anunciar mis próximos cuatro teléfonos". No tiene sentido. Pero somos una empresa de infraestructura, una fábrica para el mundo y somos fundamentales para muchísimas empresas.

GTC: Se revela la hoja de ruta de Nvidia

La primera generación de GPU es la Blackwell Ultra, que se lanzará a finales de este año. Si bien consumirá más por chip que la Blackwell, no se espera que la DGX GB300 NVL72 consuma más energía que su predecesora, la GB200, según explica Charlie Boyle, director de DGX.

"Aunque el GB300 es más rápido, optimizamos el chip e hicimos algunas cosas interesantes en la refrigeración", afirma.

A simple vista, la Nvidia GB300 NVL72 no parece muy diferente de la GB200. «Solo se nota la diferencia al mirar detrás del rack», afirma Boyle.

Uno de los racks es, en realidad, una barra colectora. Así, por primera vez, contamos con una carcasa de alimentación a nivel de centro de datos que puede alimentar todo el rack; simplemente se deslizan los DGX allí.

Además, la empresa ha aumentado la cantidad y el tamaño de los condensadores para optimizar el flujo de energía. "Queremos que el subsistema de alimentación del servidor absorba el impacto. No queremos enviarlo de vuelta al centro de datos. Cuando se envía de vuelta al centro de datos, empiezan a ocurrir todo tipo de problemas", añade Boyle.

Tradicionalmente, los operadores de centros de datos han tenido que incorporar un sistema de reserva de energía para posibles picos. «Dependiendo de lo conservador o de lo avanzado que sea el sistema, muchos clientes están incorporando entre 1,3 y 1,5 veces la potencia del rack», explica Boyle.

Eso es energía desperdiciada, energía no utilizada. Pero como la energía es lo más importante en el centro de datos, quiero aprovechar al máximo cada vatio posible. Por eso, con los nuevos sistemas de energía en nuestros diseños B300, y siguiendo con los de nuestros diseños GB, no es necesario sobreabastecer el centro de datos para que funcione a máxima capacidad, incluso cuando se alcanzan esos picos.

Esto debería significar que los racks GB300 serán tan fáciles de implementar como lo fueron los 200, aunque muchos operadores de centros de datos están teniendo dificultades para cumplir con los requisitos de densidad a escala de estos sistemas.

Y a partir de ahí, la situación no ha hecho más que mejorar. En la segunda mitad de 2026, Nvidia promete lanzar el Vera Rubin NVL144, con un nuevo chip ARM y una nueva GPU. La compañía aún no ha revelado cuánta energía espera que consuma ese rack, pero probablemente será mayor, y Boyle afirma que "habrá muchos pasos intermedios" entre la escala de 120 kW y los 600 kW. "Tenemos que estar a la altura de nuestros clientes".

Vale la pena señalar que, con esta primera generación de Vera Rubin, Nvidia ha cambiado su nomenclatura para estos racks.

En el DGX GB300 NVL72, el número indicaba las 72 GPU en el rack. A partir del Rubin, mostrará el número de GPU de tamaño retículo. Tanto Blackwell como Rubin cuentan con dos GPU de tamaño retículo, por lo que el número se ha duplicado a 144, pero en realidad, el número de GPU es el mismo en ambas generaciones.

Esto nos lleva al Rubin Ultra NVL576 en la segunda mitad de 2027. Cada Rubin Ultra cuenta con cuatro GPU de tamaño retículo, lo que supone un total de 144 GPU de mayor tamaño. Asimismo, se espera que aumente el número de nuevas CPU Arm, aunque Nvidia aún no ha confirmado en qué medida.

The Nvidia Kyber rack and sidecar
– Sebastian Moss

Presentando a Kyber

Todo esto lleva el rack 'Kyber' a 600kW, más allá de los límites de la gran mayoría de los centros de datos actuales, especialmente si los racks se implementan a escala.

Aunque gran parte del sistema podría cambiar en los próximos años, algunos datos son conocidos. «Los GB200 y 300 tienen refrigeración líquida en más del 90 %», afirma Boyle. «Pero aún tienen ventiladores y algunos componentes no son de placa fría. El diseño del rack Kyber es 100 % de refrigeración líquida, sin ventiladores».

Kyber también utiliza servidores blade de cómputo, servidores más pequeños que son verticales, para albergar más capacidad de cómputo y de red en el rack.

Fundamentalmente, Kyber también incluye un sidecar del tamaño de un rack para gestionar la alimentación y la refrigeración. Por lo tanto, si bien es un rack de 600 kW, requiere el equivalente a dos racks, al menos en la versión actual de Nvidia.

Los racks Blackwell también requieren infraestructura de energía y refrigeración en los racks del centro de datos, pero uno de esos sistemas puede soportar muchos racks GB200, por lo que cada rack de 120 kW requiere solo el equivalente a un rack y un poco más de espacio físico.

Por supuesto, el rápido aumento de densidad en tan solo unos años plantea la pregunta de hasta dónde puede llegar. Durante los últimos 18 meses, la compañía ha estado en conversaciones con su cadena de suministro sobre la construcción de racks de 1 MW. En GTC, circularon rumores sobre planes para duplicar la densidad del NVL576.

Superar el nivel de rack de MW, si es que se logra, no será fácil. En el número 56 de la revista DCD ( que se publica la próxima semana ), Giordano Albertazzi, director ejecutivo de Vertiv, explica que otro salto en densidad requerirá «una nueva revolución en la refrigeración líquida y un cambio de paradigma en el sector de la energía».

“Voltajes más altos, diferentes tipos de infraestructura eléctrica; todo sigue siendo dinámico”, dice Albertazzi.

«Es innegable que la densidad seguirá aumentando. ¿Llegaremos exactamente a 1 MW? No lo sé, pero la densidad sin duda aumentará cada vez más porque el cómputo será mucho más eficiente cuando eso suceda», continua.

Ocupará un espacio ligeramente mayor, pero no será enorme. No ocupará el espacio de 10 racks. Sin duda, será mucho más robusto, simplemente porque el peso será de escalas totalmente diferentes. Pero el concepto no sería ajeno a lo que pensamos hoy.

Desafíos de la escalabilidad del centro de datos

De regreso en GTC, Nvidia llevó a más de cien ejecutivos del sector de centros de datos a su campus para discutir los desafíos de implementar racks cada vez más densos.

"Quería asegurarme de hablar con DCD, porque nos hemos convertido en una empresa de infraestructura", dijo Ian Buck, director de centros de datos de Nvidia. "Ya no hablamos de chips. Hablamos a escala de centro de datos".

Espera que una mayor transparencia sobre los planes del gigante de las GPU ayude a evitar lo peor. "El NVL72 prácticamente apareció y ha sido una lucha para que los centros de datos del mundo puedan soportar racks de 120 kW y migrar a todo el mundo a la refrigeración líquida tan rápido y a esta escala".

Al salir a bolsa, permite a los proveedores potenciales "tener el coraje de invertir en la construcción de cosas que normalmente solo harían en una supercomputadora única y a medida como parte de un proyecto de I+D", explica Buck.

Ahora que hemos lanzado NVL72, es más fácil prever el futuro, pero es fundamental que comprendan nuestra hoja de ruta para que sepan construir la próxima generación. Incluso el caudal en una tubería curva es importante. Hay abrasión, así que necesitamos diseñar el tipo de tubería adecuado para poder escalarlo a millones de GPU.

Lograr construir algo que pueda existir fuera de un laboratorio de investigación es clave, dice Buck. "Es difícil saber dónde está el límite. Vengo del mundo de la supercomputación: allí, un posible gabinete de megavatios no es inaudito. Es bastante concebible; a esa gente no le importa. La tecnología está ahí. Lo difícil es: ¿se puede hacer a gran escala?

¿Se puede lograr a esa escala, no construyendo una nave espacial ni un coche de Fórmula 1, sino construyendo todos los coches del mundo de esa manera? Esa es la pregunta. ¿Podemos conseguir una cadena de suministro [que nos ayude a lograrlo]?

Por supuesto, en algún momento, ya sea por limitaciones de refrigeración o de energía, el sector del centro de datos puede no ser capaz de soportar racks más densos.

Jensen Huang no prevé un límite inminente. Eludió la pregunta de DCD sobre dónde se situaba el límite a corto plazo para la densidad de racks, sugiriendo en cambio que no vislumbra un final real.

"Bueno, un centro de datos ahora tiene 250 MW; ese es más o menos el límite por rack", dijo Huang a DCD. "Creo que el resto son solo detalles. Así que, si dijeras que los centros de datos son un gigavatio, entonces diría que un rack de un gigavatio es correcto".

«Por supuesto, el resto es ingeniería y practicidad. No es necesario poner todo en un mismo rack».

En el centro de la búsqueda de una densidad cada vez mayor de Nvidia está el deseo de obtener tantas GPU como sea posible en una única estructura, en este caso el enlace de comunicaciones NVLink, propiedad de la empresa.

“La sobrecarga de la red, el protocolo de comunicaciones, es extremadamente baja”, dijo Huang. “Esto significa que todas las GPU pueden funcionar juntas como una sola. De hecho, se comunican entre sí como si estuvieran accediendo a las memorias de las demás. Todas nuestras GPU conectadas mediante NVLink son esencialmente un chip gigante”.

El problema es que todo esto lo gestiona el cobre, lo que limita la distancia que pueden estar las GPU entre sí.

"Nvidia se esforzará al máximo por construir el mejor componente posible", afirmó Buck. "Y ese componente, en este momento, es cuántas GPU se pueden conectar en un solo dominio NVLink en cobre".

"Solo se puede avanzar un metro y medio antes de que los electrones simplemente quieran escapar. Eso es lo que impulsa la densidad. Y creo que esto continuará hasta que se agote, y entonces buscaremos el siguiente 'algo' óptico, el siguiente tejido de escalado para reducir el costo", añade.

La compañía intentó una ruta diferente en el pasado, anunciando el DGX One Ranger, que "tenía el tamaño de todo el escenario principal de Computex", recuerda Buck. En lugar de cobre, optó por fibra óptica, "pero el problema era que, para proporcionar tanto ancho de banda NVLink desagregado de esa manera, se necesitaba demasiada fibra óptica y demasiados transceptores".

La mitad de la energía se gastó solo en óptica, solo en conectividad, en lugar de en computación. No era un diseño bueno ni eficiente, y nunca llegó a producción.

El cobre "no consume energía, así que la misión fue: poner tantas GPU como podamos en un NVL. Seguiremos haciéndolo'".

Conmutación fotónica

Sin embargo, la empresa ha cambiado mucho desde la época de Ranger. Recientemente anunció el lanzamiento de conmutadores de red fotónica de silicio, es decir, para conectar racks entre sí, no para la conectividad dentro del rack.

Se espera que esa medida por sí sola reduzca significativamente las demandas de energía de la red, aumentando fundamentalmente el porcentaje de energía de las instalaciones que se puede destinar a implementar más GPU.

The Kyber compute blade, from Nvidia
– Sebastian Moss

Pero sí sugiere al menos una vía para integrar la óptica en el rack. "Mientras se pueda usar cobre, se usará cobre", afirmó Gilad Shainer, vicepresidente sénior de redes de Nvidia.

Pero, en algún momento, no habrá cobre. Este solo tiene 200 gigas de SerDes por carril. Dentro de tres años, cuando pasemos a 400 gigas por carril, ese límite de uno o dos metros de cobre se reducirá a nada. Eso significa que todo se volverá óptico, pero construimos sistemas basados ​​en lo que se puede hacer, en lo que existe ahora.

Por ahora, NVLink se conecta mediante cobre entre los dominios NVLink y la escalabilidad horizontal se realiza mediante fibra. En el futuro, se puede asumir que todo se volverá óptico, y que habrá más innovaciones en la óptica de co-paquete y en cómo llevar la óptica directamente al conmutador, sin pasar por transceptores.

Cualquiera que sea la solución, el objetivo principal es colocar tantas GPU como sea posible dentro de esa única estructura.

"Vamos a escalar lo más que podamos", dijo Huang, haciendo referencia repetidamente a la idea de miles de GPU en una sola estructura, antes de que la empresa tenga que cambiar su enfoque para "escalar horizontalmente" a través de múltiples racks.

Aquí, probablemente se refiere a GPU de tamaño retículo, en lugar de GPU distintas, nuevamente siguiendo el cambio de convención de nomenclatura que hace que el NVL576 tenga 144 GPU, cada una con cuatro GPU de tamaño retículo.

"¿Es necesario colocar todo en un solo rack si no hay motivo para ampliar más de unos pocos miles de procesadores porque las matemáticas de ampliación y ampliación son tales que hay rendimientos decrecientes más allá de 1000 o 5000 GPU?

Después de eso, podríamos escalar horizontalmente con muchos racks, ¿no? Pero si la ampliación es muy efectiva, como entre 72 y 144, y entre 288 y 576, deberíamos intentar ampliarla al máximo.

Algún día, apuesto a que encontraremos rendimientos decrecientes, en cuyo caso, escalaremos a 4000 (elige una cifra) X mil GPU. Después, podremos escalarlo horizontalmente, y así no tendrás que acumularlo con tanta densidad.