El vertiginoso crecimiento de la inteligencia artificial generativa, impulsado por el lanzamiento de ChatGPT a finales de 2022, ha desatado una ola de consumo energético sin precedentes a nivel mundial. Según el reciente informe de la Agencia Internacional de Energía (IEA), se proyecta que el uso de electricidad por parte de centros de datos, claves para el funcionamiento de esta tecnología, se duplique para 2026. Este incremento en el consumo energético amenaza los compromisos ambientales de grandes empresas tecnológicas como Google y Microsoft, que ya han visto un aumento significativo en sus emisiones de carbono.

El consumo energético de la inteligencia artificial

La inteligencia artificial generativa, o genAI, no solo ha revolucionado industrias enteras con su capacidad para generar texto, imágenes y más, sino que también está provocando un aumento vertiginoso en el consumo de energía. Según el informe de la Agencia Internacional de Energía (IEA) de 2024, la electricidad requerida por centros de datos, esenciales para operar estos modelos de inteligencia artificial, podría alcanzar los 1.000 teravatios-hora para 2026. Esta cifra equivale al consumo total de electricidad de Japón en un año, un país reconocido por su alto consumo energético.

Estos centros de datos, a menudo operados por gigantes tecnológicos como Google y Microsoft, son el corazón que impulsa el funcionamiento de genAI. Dentro de ellos, millones de cálculos complejos se llevan a cabo en unidades de procesamiento gráfico (GPUs), diseñadas específicamente para manejar tareas de inteligencia artificial de manera eficiente. Sin embargo, aunque estos chips son más eficaces que otros tipos de procesadores, la escala masiva en la que operan hace que el consumo energético se dispare.

Artificial Intelligence 2167835 1920

El impacto ambiental de esta tecnología es tan significativo que ya está afectando los compromisos de sostenibilidad de varias empresas. Por ejemplo, un estudio conjunto entre Google y la Universidad de California, Berkeley, reveló que entrenar el modelo GPT-3 de OpenAI generó 552 toneladas métricas de carbono, lo que equivale a las emisiones de 112 automóviles de gasolina en un año. Asimismo, Google informó que en 2023 su consumo de electricidad en centros de datos creció un 17%, y aunque la compañía no especificó cuánto de este aumento se debe a genAI, anticipa que esta tendencia continuará en alza.

Las grandes corporaciones tecnológicas, al mismo tiempo que compiten para liderar el avance en inteligencia artificial, están enfrentando una creciente presión para cumplir con sus objetivos de emisiones netas cero. Sin embargo, la expansión de la capacidad de los centros de datos, necesaria para sostener la demanda de genAI, está llevando a muchas de estas compañías a incrementar significativamente su huella de carbono. Microsoft, por ejemplo, anunció en mayo que sus emisiones aumentaron casi un 30% desde 2020 debido a la construcción de nuevos centros de datos, una infraestructura crucial para su expansión en el campo de la inteligencia artificial.

Los desafíos de la refrigeración y el consumo de agua

Otro aspecto crítico del impacto ambiental de genAI es el consumo de agua. Para mantener operativos los centros de datos, es necesario mantener una temperatura estable que evite el sobrecalentamiento de los equipos. Esto se logra a través de sistemas de refrigeración que, en muchos casos, dependen de grandes cantidades de agua. En 2022, los centros de datos de Google consumieron aproximadamente 5 millones de galones de agua dulce para enfriar sus instalaciones, lo que representa un aumento del 20% en comparación con el año anterior. Microsoft, por su parte, incrementó su consumo de agua en un 34% en el mismo período.

Pexels Samandgos 709552

El uso intensivo de agua en los centros de datos plantea un dilema especialmente complejo en regiones donde los recursos hídricos son escasos. El agua utilizada en la refrigeración debe estar libre de impurezas, lo que obliga a los centros de datos a competir por los mismos recursos que la población utiliza para necesidades básicas como beber, cocinar y lavar. Este conflicto de intereses entre el desarrollo tecnológico y la conservación de recursos esenciales subraya la necesidad urgente de desarrollar tecnologías de refrigeración más sostenibles o alternativas que reduzcan la dependencia de agua en estos procesos.

A medida que la inteligencia artificial generativa continúa su expansión, su impacto en la red eléctrica y en los recursos hídricos del planeta se convierte en un tema central en los debates sobre sostenibilidad. La falta de transparencia en la divulgación de datos por parte de empresas como OpenAI, Meta y Microsoft, quienes no comparten abiertamente información clave sobre el consumo energético de sus modelos, complica aún más la comprensión completa del alcance de este problema.

La encrucijada de la innovación y la sostenibilidad

La rápida expansión de la inteligencia artificial generativa ha dejado al descubierto una paradoja inherente en la tecnología moderna: mientras más avanzamos en capacidades computacionales, más intensamente impactamos nuestro entorno. La creciente demanda energética y el consumo de recursos como el agua ponen en tela de juicio la viabilidad a largo plazo de estos avances si no se acompaña de un compromiso genuino con la sostenibilidad. El futuro de la innovación dependerá, en última instancia, de nuestra capacidad para equilibrar progreso tecnológico con responsabilidad ambiental, transformando desafíos en oportunidades para un desarrollo más limpio y eficiente.

El artículo La expansión de la IA generativa podría colapsar la infraestructura energética global aparece primero en Driving ECO.

https://www.drivingeco.com

Podcast también disponible en PocketCasts, SoundCloud, Spotify, Google Podcasts, Apple Podcasts, and RSS.

El podcast

Únete a Naomi Ellis mientras se adentra en las vidas extraordinarias que dieron forma a la historia. Su calidez y perspicacia convierten biografías complejas en historias identificables que inspiran y educan.

Acerca del podcast