Verdadero o Falso

Por qué ChatGPT es una absoluta amenaza para el clima

Este chatbot genera 50 veces más CO2 que otros para responder a preguntas sencillas
Una imagen que mezcla tecbología y naturaleza. / Green Technology: Computer Circuit Board with a Tree Growing from the Center. Concept Green Technology, Computer Circuit Board, Tree Growth, Eco-friendly Innovation, Sustainable Development

La inteligencia artificial (IA) se ha convertido, casi de la noche a la mañana, en un acompañante en nuestro día a día que, sin entrar en las aplicaciones que tiene para la medicina o cualquier otro sector profesional, nos facilita la vida, nos da la información que necesitamos y nos resuelve las dudas, aunque no siempre de la manera más adecuada ni certera.

Pero, aunque no resulte muy sencillo de entender, nuestras preguntas a ChatGPT o a otros chatbots populares suponen una verdadera amenaza para el planeta. Los modelos de inteligencia artificial conversacional más potentes pueden generar hasta 50 veces más emisiones de CO₂ que otros mucho más simples al responder a preguntas sencillas con igual eficacia. El dato evidencia uno de los grandes lastres del despliegue masivo de la IA generativa de cara a 2026: su enorme huella energética y ambiental.

Consumo energético

"A diferencia de sectores como la aviación o el transporte, el consumo energético del mundo digital se ha analizado de forma muy limitada", explica a la agencia Efe Rubén Cuevas, profesor de Ingeniería Telemática en la Universidad Carlos III de Madrid (UC3M).

El consumo digital es una de las dimensiones del cambio climático menos visibles para el ciudadano de a pie. Videollamadas, correos electrónicos, publicidad en internet y, ahora, la inteligencia artificial generativa, como parte de un ecosistema tecnológico cuyo impacto ambiental apenas ha sido medido, ni cuantificado, en muchos casos.

El potencial que tiene la inteligencia artificial conversacional, capaz de generar respuestas similares a las humanas mediante redes neuronales y aprendizaje automático, sigue siendo enorme, pero también es gigantesco su impacto climático. Apenas una decena de consultas a estos sistemas, de entre los millones que realizan cada día los usuarios, puede generar en torno a 100 gramos de CO₂, según los expertos.

50 veces más CO₂ que otros

Esos modelos requieren grandes capacidades de cálculo y enormes infraestructuras de computación, lo que se traduce en una elevada demanda eléctrica y un impacto climático creciente. "No hace falta lanzar siempre toda la artillería pesada para cualquier consulta", advierte Cuevas. "Ni por motivos energéticos ni ambientales".

Según sus cálculos, los grandes modelos conversacionales más populares, como ChatGPT, emiten hasta 50 veces más CO₂ que otros sistemas mucho más simples cuando procesan preguntas básicas. Los datos ilustran bien la diferencia. Para una consulta elemental, como cuál es la capital de España, el procesamiento en ChatGPT puede generar alrededor de 11 gramos de CO₂. En cambio, modelos menos potentes como el europeo Mistral, pero que son igual de eficaces para este tipo de preguntas, emitirían apenas 0,016 gramos.

Rubén Cuevas es el cofundador, junto a su hermano Ángel, de la empresa de base tecnológica Hiili, respaldada por la UC3M, cuyo propósito es medir las emisiones asociadas a los servicios digitales y al uso de modelos de inteligencia artificial.

Democratizar el uso de la tecnología sostenible

"El objetivo es democratizar el acceso a una tecnología responsable, eficiente y sostenible; que el usuario sea consciente de qué modelos contaminan menos", señala.

En la actualidad, "no existe una visibilidad real sobre la variedad de modelos de IA, cómo se usan, cuánta energía consumen ni cómo optimizar ese consumo", añade Pedro Travesedo, director de Alianzas de Hiili.

Representación del uso de la tecnología en la naturaleza. Freepik

El crecimiento exponencial de los grandes modelos de IA está generando una presión inédita sobre la demanda eléctrica. Conocer el consumo exacto de un centro de datos no es sencillo debido a la escasa transparencia del sector, pero en momentos de máxima demanda pueden alcanzar potencias de hasta 200 megavatios (MW), según los expertos. Un centro de datos pequeño puede consumir entre 1 y 2 gigavatios hora (GWh) al año, mientras que uno de gran tamaño puede llegar a 200 o 300 GWh anuales.

"Si tomamos el valor más alto y lo comparamos con el consumo medio de una vivienda en España, que ronda los 3.300 a 3.500 kilovatios hora al año, un solo centro de datos puede equivaler al consumo anual de entre 85.000 y 90.000 hogares", detalla Cuevas.

Energía, eficiencia y ecosistema digital

"No hay energía suficiente para alimentar la inteligencia artificial tal y como se está planteando". Ante este escenario, las grandes tecnológicas exploran distintas soluciones. Una de ellas es la construcción de microrreactores nucleares junto a los centros de datos, "una opción compleja por los largos plazos de desarrollo y la gestión de los residuos".

Otra vía es la firma de acuerdos directos con compañías gasistas para garantizar el suministro energético, "una alternativa que se aleja de los compromisos climáticos europeos de reducción de emisiones", según explica el experto. La Secretaria de Estado de Digitalización e Inteligencia Artificial (SEDIA) desde el Gobierno español ha puesto en marcha el Plan Nacional de Algoritmos Verdes y trabaja ya en estándares para medir el consumo energético de los modelos de IA.

Hiili ha participado en dicha iniciativa en la definición de una especificación que establece cómo cuantificar la eficiencia energética de la IA. La tecnología desarrollada por esta empresa ha analizado ya 1.500 millones de anuncios digitales, responsables de la emisión de 17 toneladas de CO₂. Extrapolado a escala global —donde se sirven cerca de un billón de anuncios al día—, el impacto ascendería a unas 1.700 toneladas diarias. "Es como tener una bombilla encendida desde el año 4.000 antes de Cristo hasta hoy", explica el ingeniero.

"Nuestro objetivo es que cualquier empresa y usuario individual pueda aprovechar la inteligencia artificial sin disparar su consumo energético; progresar sin comprometer la sostenibilidad", concluye Cuevas.

28/12/2025