El 4 de julio de 2024, el programa de noticias de la radio pública estadounidense, PBS Newshour, informó sobre el impacto de la IA en el uso de energía de los centros de datos. El corresponsal económico Paul Solman informó que los 11.000 centros de datos en todo el mundo consumen entre el dos y el ocho por ciento del consumo mundial de energía. El dos por ciento es igual a la energía que consumen los Países Bajos.

Algunos expertos predicen que, debido a las cargas de trabajo de la IA, las cargas de trabajo energéticas podrían duplicarse en dos años, lo que equivale al consumo energético de Japón. Dos días antes, Google informó que su objetivo de convertirse en un consumidor de energía neta cero, incluidas las operaciones y la cadena de suministro, para 2030 no se cumplirá debido al impacto de la IA y que las emisiones crecieron un 23 por ciento en 2023 con respecto al año anterior y un 48 por ciento en comparación con el año base de 2019.

El director ejecutivo de Anthropic, Dario Amodei, ha estimado que entrenar los modelos de IA actuales costará hasta mil millones de dólares, en comparación con los 100 millones de dólares que OpenAI gastó en ChatGPT-4. En 2023, se informó que ChatGPT utilizó 30.000 GPU para entrenarse, lo que, según confirmó el director ejecutivo de OpenAI, Sam Altman, costó 100 millones de dólares. Con 3,8 millones de GPU enviadas a centros de datos en 2023, las estimaciones de la energía necesaria solo para las GPU (suponiendo 700 W por GPU y una utilización del 61 por ciento) son equivalentes a 1,3 millones de hogares.

Schneider Electric ha publicado estimaciones de que en 2023, el consumo total de energía del centro de datos fue de 54 GW y las cargas de trabajo de IA representaron aproximadamente el ocho por ciento o 4,3 GW, divididos entre el 20 % para entrenamiento y el 80 % para cargas de trabajo de inferencia.

Schneider Electric prevé que el consumo energético total de los centros de datos en 2028 sea de 90 GW, y que las cargas de trabajo de IA consuman entre 13,5 GW y 20 GW, lo que representa entre el 15 y el 20 por ciento de la energía total de los centros de datos. Se prevé que la distribución de las cargas de trabajo de IA cambie al 15 por ciento de entrenamiento y al 85 por ciento de inferencia en 2028, según Scheider Electric.

La adquisición de electricidad se está convirtiendo en un factor limitante para el funcionamiento de los centros de datos, y los clientes de gran escala han recurrido a la energía nuclear como una forma de alimentar sus centros de datos con generación de carbono cero. Sin embargo, teniendo en cuenta que la edad media de las centrales nucleares de Estados Unidos es de 42 años según el Departamento de Energía de ese país, la energía nuclear no resuelve el problema de la energía de los centros de datos.

Según las estimaciones, los 260 centros de datos de Equinix consumen tanta electricidad como 750.000 hogares estadounidenses. En mi localidad, en el área de la bahía de San Francisco, la empresa de servicios públicos PG&E, que presta servicios en el norte de California, ha informado de solicitudes de 3,5 GW de energía para centros de datos hasta 2029, lo que requiere entre 500 y 1.600 millones de dólares en proyectos de capital para satisfacer la demanda. El operador de centros de datos Digital Core REIT ha informado de que las asignaciones de energía incrementales para los centros de datos en el norte de California están suspendidas hasta 2028.

Kate Crawford, investigadora y profesora de la Universidad del Sur de California, dice que los modelos pequeños de lenguaje y la regulación gubernamental tienen el potencial de limitar el uso de energía debido a las cargas de trabajo de IA.

Christopher Wellise, vicepresidente de sustentabilidad global de Equinix, dice que la IA también tiene el potencial de ahorrar energía, como en la optimización de rutas del cliente Air Canada, y que la energía utilizada para entrenar modelos grandes de lenguaje debe considerarse como energía de almacenamiento que puede utilizarse en el futuro para otros trabajos productivos.

El fundador de LinkedIn, Reid Hoffman, afirmó que la inteligencia artificial utilizada hace diez años permitió ahorrar un 15 por ciento de la energía de los centros de datos en funcionamiento. Cree que la inteligencia artificial utilizada para mejorar el funcionamiento de la red eléctrica mejorará su eficiencia.

El laboratorio de investigación de inteligencia artificial DeepMind de Google publicó recientemente una investigación que demuestra que un nuevo método de entrenamiento denominado JEST (Joint Example Selection) ofrece una eficiencia energética diez veces mayor mediante técnicas de entrenamiento por lotes que utilizan un modelo de inteligencia artificial para supervisar el proceso de entrenamiento. La Unión Europea exigirá a los centros de datos que informen sobre su consumo de energía y agua este otoño y que enumeren las medidas que se están adoptando para reducir el consumo.

Si bien existe el potencial para reducir el consumo de energía requerido para las cargas de trabajo de IA a través de nuevos algoritmos y enfoques, GPU más eficientes energéticamente y nuevas fuentes de energía, hoy en día, la refrigeración líquida directa al chip (DLC) ofrece la oportunidad más inmediata de reducir la PUE y mejorar la eficiencia energética, con una PUE de 1,06 lograda en la práctica a través de DLC.

Además, las CPU de servidor más recientes con un mayor número de núcleos han mejorado el rendimiento de núcleo por vatio, lo que permite reducir el espacio ocupado por el centro de datos y los ahorros de energía asociados, al tiempo que se logra el mismo nivel de rendimiento que los sistemas más antiguos. Muchos de estos sistemas también se beneficiarán de los DLC debido al aumento del TDP del procesador necesario para estos mayores recuentos de núcleos.

Si bien muchos operadores de centros de datos (CSP o locales) desean los sistemas basados ​​en CPU y GPU más recientes y rápidos, existe la oportunidad de investigar la combinación adecuada para los SLA acordados y la energía requerida para los servidores.

La adecuación del rendimiento y el consumo de energía necesarios para las actividades de IA será una métrica importante en el futuro. Cada generación de servidores con la nueva tecnología de CPU y GPU muestra un enorme aumento en esta métrica.