Al observar la evolución en la construcción de data centers desde el inicio de los años 2000, ¿es posible dividir este período en fases con base en los principales cambios en los tipos de proyectos? ¿Qué caracteriza cada fase?
En los años 2000, vivimos un período de fuerte expansión de los centros de datos impulsado por el crecimiento acelerado del internet. Los servicios de centros de datos y colocation proliferaron hasta el "estallido" de la burbuja del internet, que puso al mercado en una pausa durante varios años. Tras este período, el sector se reorganizó en torno a una combinación de outsourcing, hosting y colocation, con un enfoque en empresas y operando predominantemente bajo un modelo de retail, donde múltiples clientes compartían las mismas instalaciones. Paralelamente, muchas empresas continuaron invirtiendo en sus propios data centers para acomodar el crecimiento orgánico de sus operaciones de TI. En este período, tanto los data centers como los entornos de TI eran poco eficientes en términos de energía y costo, con un enfoque principal en la disponibilidad y la resiliencia de las infraestructuras.
A partir de 2007, con la adopción masiva de la virtualización y el surgimiento de los servicios en la nube, comenzó una tendencia gradual de reducción de las inversiones en data centers empresariales. Las últimas grandes inversiones en este segmento ocurrieron entre 2010 y 2014. A partir de ese momento, la combinación de la optimización proporcionada por la virtualización y la creciente adopción de la nube pública redujeron estas inversiones a niveles mínimos, limitadas básicamente al mantenimiento de la infraestructura existente. Como consecuencia, muchos data centers empresariales construidos en ese período se volvieron obsoletos y operaron con una baja tasa de utilización.
Por otro lado, el crecimiento acelerado de la computación en la nube generó una nueva dinámica de demanda de colocation a gran escala, dirigida principalmente a los proveedores de nube pública. Este movimiento impulsó un crecimiento significativo en el mercado de data centers, manteniendo una tasa de crecimiento compuesta superior al 10% anual durante más de una década.
Más recientemente, la llegada de ChatGPT y otros modelos de IA generativa basados en LLMs (Large Language Models) ha generado una nueva ola de demanda de infraestructura para data centers. El mercado, que ya estaba en expansión, ahora se encuentra al límite de su capacidad en diversas áreas: generación y distribución de energía, suministro de componentes y construcción de nuevas instalaciones. Las proyecciones indican que el crecimiento del sector podría variar entre un 20% y un 35% anual en la próxima década, si las tendencias actuales se mantienen. Este crecimiento acelerado crea un cuello de botella en la capacidad del mercado para satisfacer la demanda, lo que resulta en un déficit proyectado de hasta 13 GW de capacidad en EE.UU. para finales de la década. En otras palabras, el modelo actual ha llegado claramente a su límite.
Con la diversidad de tipos y tamaños de data centers actualmente, ¿cómo ves la evolución en términos de construcción para atender diferentes necesidades y modelos de negocio?
Hemos pasado de un escenario dominado por data centers corporativos o de outsourcing de baja potencia a infraestructuras de mayor densidad y escalabilidad, muchas veces superiores, para satisfacer las demandas de la computación en la nube. El consumo de energía, que ya se había duplicado o triplicado en este proceso, ahora entra en una nueva fase, con mega instalaciones que superan cientos de megavatios y capacidades individuales de gabinetes que pueden alcanzar cientos de kW. Estos son avances disruptivos en la forma en que los data centers son diseñados, en los niveles de eficiencia esperados y en las tecnologías necesarias para sustentarlos.
Además, la velocidad del cambio es impresionante: cada seis meses se establecen nuevos parámetros, exigiendo estándares aún más agresivos en potencia y refrigeración.
Ante este escenario, dos factores se vuelven fundamentales: flexibilidad, para adaptarse a demandas en constante evolución, y la necesidad de pensar en grande, pero actuar de manera granular. Esto implica adoptar un enfoque constructivo que permita un modelo "future-proof", donde una misma instalación pueda soportar implementaciones modulares y graduales, ajustándose continuamente a requisitos más exigentes sin comprometer su operación.
El uso de componentes modulares y un diseño concebido con estos principios en mente son esenciales para mitigar riesgos y garantizar que las instalaciones puedan mantenerse al día con esta evolución constante.
¿Cómo se abordaba la sostenibilidad en los proyectos de data centers a principios de los años 2000, y cómo su creciente importancia ha transformado el diseño y la construcción de los proyectos actuales?
En aquella época, el enfoque principal era la eficiencia energética, aunque había una actitud significativamente más permisiva respecto al consumo de energía. Esto era comprensible, ya que los data centers operaban en escalas mucho menores, tanto en tamaño como en demanda eléctrica. Era común –y aún lo es en muchos casos– encontrar data centers corporativos o de colocation con un índice de PUE (Power Usage Effectiveness) superior a 2. Es decir, por cada 1 watt entregado a TI, otros 1 o más eran consumidos exclusivamente por sistemas de soporte, como refrigeración y UPS.
Actualmente, la exigencia de eficiencia energética es mucho más rigurosa, impulsada por el rápido crecimiento del consumo de energía en los data centers. Un data center moderno puede alcanzar un PUE de 1.2, dependiendo de su diseño y ubicación. Además, la sostenibilidad se ha convertido en un tema central, ampliando el enfoque hacia otros indicadores, como el WUE (Water Usage Effectiveness), que mide la eficiencia en el uso del agua, y el CUE (Carbon Usage Effectiveness), que evalúa las emisiones de carbono asociadas con la construcción y operación de los data centers.
Este cambio de paradigma es esencial, ya que la participación de los data centers en el consumo global de energía, que hoy ronda el 1.5%, podría alcanzar un alarmante 21% para 2030, según algunas proyecciones. Esto los convierte en un factor crítico en la búsqueda de un equilibrio sostenible entre el avance tecnológico y el impacto ambiental.
¿Qué cambios destacarías en el tiempo necesario para la construcción de data centers a lo largo de las décadas? ¿Qué aspectos han influido en estos cambios?
Lamentablemente, la velocidad de construcción de data centers sigue una trayectoria opuesta a la deseada. La creciente demanda –ahora aún más impulsada por la inteligencia artificial– ha generado una presión creciente sobre las cadenas de suministro, la distribución de energía y la disponibilidad de mano de obra calificada para el diseño, construcción y operación de estas infraestructuras.
Creemos que una de las principales soluciones a este problema radica en la industrialización de componentes y la modularidad, permitiendo implementaciones granulares en un modelo "just in time". Esto optimiza el CAPEX y mejora la asignación de recursos.
Esta metodología también permite la paralelización de los procesos constructivos, posibilitando que actividades como licencias, preparación del terreno y obras básicas de infraestructura ocurran simultáneamente a la fabricación de los principales elementos del data center en un entorno industrializado. Con esto, el tiempo de implementación puede reducirse drásticamente. En nuestra experiencia, este enfoque puede disminuir el tiempo total de construcción hasta en un 60%.
Con el crecimiento de la IA y el procesamiento de alto rendimiento, ¿qué nuevos desafíos surgen para la construcción de data centers y cómo se está preparando el sector para enfrentarlos?
Debemos construir instalaciones mucho más grandes, con capacidad significativamente superior y en plazos cada vez más cortos.
Los nuevos requisitos de potencia exigen una reevaluación profunda de la arquitectura de los data centers, tanto en la distribución de energía como en la refrigeración de entornos donde una sola fila de racks puede concentrar varios megavatios.
Lo que es seguro es que los métodos tradicionales han llegado a su límite. El sector necesita nuevas estrategias para continuar evolucionando. Por eso, apostamos por la industrialización y construcción modular de data centers como una solución clave para muchos de los desafíos actuales.