Por Simon Gardner, director de tecnología global de Oper8 Global


Las tecnologías de inteligencia artificial generativa que están cambiando las reglas del juego están afectando drásticamente la forma en que los empleados trabajan, interactúan con los clientes y colaboran con los socios. Sin embargo, detrás de escena, el voraz apetito de recursos de la inteligencia artificial generativa está obligando a las organizaciones a reconsiderar por completo la forma en que se diseñan y gestionan los centros de datos.

Estos desafíos son más evidentes en los entornos corporativos, donde se están entrenando modelos de lenguaje grande (LLM) de IA generativa especialmente diseñados con datos de la empresa para brindar herramientas de soporte a trabajadores y clientes con capacidades de análisis de datos y lenguaje natural sin precedentes.

Gartner ha predicho que para 2026, más del 80 por ciento de las empresas utilizarán API o modelos de IA generativa, y la mayoría habrá implementado aplicaciones de IA generativa en entornos de producción que se ejecutan en plataformas de nube de hiperescala o dentro de los confines de sus propios centros de datos.

Si bien las empresas han utilizado durante mucho tiempo sistemas de computación de alto rendimiento (HPC) y unidades de procesamiento de gráficos (GPU) especializadas para el procesamiento intensivo de datos, el crecimiento de la demanda de sistemas de IA generativa (y su necesidad de procesar datos lo suficientemente rápido como para permitir una respuesta casi en tiempo real a los usuarios) han impulsado un aumento en el desarrollo de chips aceleradores de IA especializados.

Los servidores que ejecutan estos chips de alta potencia (que combinan GPU con memoria de alta velocidad e incluyen modelos como GH200 de Nvidia, MI350 de AMD y Gaudi 3 de Intel) están optimizados para que la IA generativa funcione más rápido, y se están instalando en centros de datos tan rápido como las instalaciones de fabricación pueden producirlos.

Deloitte ha pronosticado que el mercado de dichos chips tendrá un valor de más de 50 mil millones de dólares este año, o alrededor del 11 por ciento del mercado mundial de chips, y aumentará a varios cientos de miles de millones de dólares para 2027. Y si bien esto presenta importantes posibilidades de ingresos para los fabricantes de chips, también crea nuevos desafíos para las empresas que integran aceleradores de IA generativa en sus centros de datos.

El problema de potencia de la IA generativa

La adopción generalizada de chips de IA generativa ya está creando desafíos debido a que su consumo de energía es mucho mayor que el de los chips normales.

Procesar una consulta de IA generativa consume 10 veces más energía que una consulta de base de datos convencional, lo que significa que donde un procesamiento de un centro de datos convencional normalmente consume hasta ocho kW o 10 kW por rack, los sistemas optimizados con IA generativa lo llevan a 40 kW, 50 kW e incluso 100 kW por rack.

Este es un salto significativo en los requisitos de energía que requiere innumerables adaptaciones en la infraestructura del centro de datos, incluida la capacidad de entrada eléctrica, distribución de energía en el sitio, protección contra sobretensiones, generación de respaldo y más.

De hecho, con la IA generativa preparada para escalar rápidamente dentro de los centros de datos de empresas individuales (y el efecto multiplicador exacerbando este efecto en una instalación de coubicación que alberga capacidades de IA generativa para muchos inquilinos), se espera que la IA generativa represente el 1,5 por ciento del consumo total de energía del mundo para 2029, según la firma de investigación de la industria TechInsights.

El Centro de Política Energética Global (CGEP) de la Universidad de Columbia proyectó que para 2027 las GPU consumirán el 1,7 por ciento de la capacidad eléctrica de Estados Unidos y el cuatro por ciento de toda la electricidad vendida en ese país, frente al dos por ciento de este año.

En ese momento, CGEP descubrió que los centros de datos optimizados para ejecutar LLM consumirán el 12 por ciento de la demanda total de electricidad comercial, casi el doble del siete por ciento de la demanda de este año y cuatro veces la demanda en 2022 antes de que el lanzamiento de ChatGPT de OpenAI trajera la tecnología de IA generativa a la corriente principal.

Los aumentos en el consumo de energía no se distribuirán de manera uniforme: si bien las instalaciones de colocation se encuentran distribuidas en las principales ciudades de la región APAC y en todo el mundo, los centros de datos a gran escala tienden a concentrarse en regiones con generación de energía confiable, amplios vínculos de comunicaciones y situaciones geopolíticas estables con fuertes mecanismos de gobernanza corporativa.

Esto significa que la rápida adopción de la IA generativa pondrá a prueba el suministro eléctrico regional y al mismo tiempo impulsará a sus principales usuarios a ampliar los centros de datos en centros regionales bien establecidos como Singapur, Sídney, Manila y Hong Kong.

Sin embargo, muchas otras organizaciones concentrarán sus capacidades de IA generativa dentro de su centro de datos existente, manteniendo su procesamiento de IA generativa cerca de sus usuarios para minimizar la latencia y la complejidad.

Mantenga la cabeza fría mientras la IA generativa se calienta

Como arquitecto especializado en centros de datos, Oper8 Global ha visto de primera mano el impacto de este aumento de la demanda impulsado por la IA generativa a medida que las empresas buscan ayuda para desarrollar estrategias para llevar la tecnología a sus propios centros de datos.

La mayoría de las empresas están destinando una parte del espacio en blanco de sus centros de datos a la IA generativa, a menudo delimitando el espacio para un "microcentro de datos" que contiene uno o más racks especialmente diseñados con infraestructura de apoyo de energía, refrigeración y comunicaciones.

Esto incluye no solo concentrarse en el suministro de electricidad de alta capacidad, sino también nuevos enfoques para enfriar los aceleradores de IA generativos que generan tanto calor que las técnicas convencionales de enfriamiento de pasillo caliente/pasillo frío simplemente no pueden seguir el ritmo.

Este desafío está impulsando un resurgimiento de formas alternativas de enfriamiento, específicamente, técnicas de enfriamiento por agua como el enfriamiento líquido directo al chip, que extrae calor de los chips aceleradores de IA apoyando físicamente placas frías sobre los chips y luego haciendo pasar agua fría sobre ellas para absorber el exceso de calor.

El enfriamiento líquido requiere un diseño técnico cuidadoso y la confianza de los fabricantes de chips, pero se espera que la creciente generación de calor en los centros de datos convierta esta tecnología en algo común en los próximos años: se estima que los dos a tres mil millones de dólares gastados este año en esta tecnología crecerán un 25 por ciento anual.

Esto crea nuevas oportunidades para nuevas tecnologías como DUG Cool, una solución innovadora de nuestro socio, DUG Technology, que sumerge los chips en un fluido patentado y no conductor que reduce la energía de enfriamiento requerida hasta en un 95 por ciento y reduce el consumo total de energía a la mitad.

Una encuesta reciente de Deloitte a 2.770 ejecutivos en 14 países encontró que el 55 por ciento se había topado con problemas relacionados con los datos que les hicieron evitar ciertos casos de uso de IA generativa, y que la mayoría de los adoptantes de IA generativa todavía solo han implementado el 30 por ciento o menos de sus experimentos de IA generativa en producción: la adopción de nuevas tecnologías de centros de datos será fundamental para que las empresas se liberen de los límites de su infraestructura de centro de datos existente y adopten plenamente las posibilidades de la IA generativa.

Al adoptar un enfoque cuidadoso al diseño del centro de datos que lo libere de preocupaciones sobre si su infraestructura puede satisfacer las demandas de la IA generativa, estará bien posicionado para unirse a ellos.