¿Se puede usar la IA de forma sostenible? Una guía para contaminar menos con tus preguntas

El impacto ambiental de la IA

Científicos y expertos intentan identificar los usos más eficientes de la IA. Un error común: usar aplicaciones de razonamiento, que emiten hasta 50 veces más CO2 que lenguajes más simples, para preguntas sencillas.  

Foto ilustración (encargo Gemma Saura /A Fondo) sobre el impacto de la IA en la ciencia. Hay mucha preocupación entre los científicos por los fraudulentos de la IA, que sirve para crear datos falsos, imágenes falsas, imposibles de distinguir incluso por los más expertos Castellano 

Un informe de la UNESCO señala que ya hay 1.000 millones de personas que usan diariamente herramientas de IA generativa

Xavi Jurio / Propias

El 45% de los españoles afirmó el año pasado haber utilizado inteligencia artificial (IA) generativa, principalmente para apoyar su trabajo, sus proyectos personales o sus estudios. El dato aparece en una encuesta mundial realizada por Google en la participaron 21.000 personas, 1.000 de ellas en la península ibérica. Que más de 20 millones de personas de un país utilicen en sus quehaceres diarios herramientas como Chatgpt o Deepseek tiene un innegable impacto ambiental -alto consumo de agua y energía- que científicos internacionales están intentando cuantificar en un planeta en crisis por el cambio climático. Frente a la opacidad de las grandes empresas digitales, que cada vez entregan menos información sobre las huellas de carbono de sus sofisticados modelos, algunos expertos empiezan a elaborar guías para utilizar la IA de la forma más eficiente posible. ¿Cómo? Eligiendo las aplicaciones según la necesidad -las que más razonan, más contaminan- y evitando las interacciones de cortesía, como los saludos o las gracias.

La Unesco, en un informe publicado esta semana, estima que hay 1.000 millones de personas que usan diariamente herramientas de IA generativa. Cada interacción consume energía, una media de 0,34 vatios por hora, lo que equivale a 310 gigavatios hora por año. ¿Cuánta energía es esta? El uso anual de electricidad de más de tres millones de personas en Etiopía, por ejemplo.

ChatGPT consume diez veces más energía que una búsqueda media en Google... ¿o no?

Cuando se habla de los impactos de la IA, las cifras que se difunden no suelen ser de fuentes confiables, como el caso de la Unesco. Hay una frase que se repite en círculos políticos y mediáticos que a Sasha Luccioni, científica informática canadiense, especializada en la conexión de la inteligencia artificial y cambio climático, le rechina: “ChatGPT consume diez veces más energía que una búsqueda media en Google”. En su reciente investigación, titulada “Desinformación por omisión: la necesidad de mayor transparencia ambiental en la IA”, la experta rastrea, sin éxito, el origen de esta sentencia.

“Se ha tomado un comentario improvisado y se ha convertido en una estadística real que está influyendo en la política y en la forma de ver estas cosas. El verdadero problema es que no tenemos cifras. Incluso los cálculos caseros que se pueden encontrar tienden a tomarse como la regla de oro, pero no es así”, reniega esta científica. En los últimos años, por una tecnología muy intensiva de recursos que ha crecido en paralelo a la aceleración del calentamiento global -el 2024 fue el primer año en cruzar la línea roja de +1,5ºC respecto a la era preindustrial-, son muchas las analogías lanzadas sobre los costes ambientales de la IA. 

Lee también

La IA disparará en Europa la demanda de electricidad un 160% en cinco años

Piergiorgio M. Sandri
14 - 02 - 2022 / Barcelona / supercomputador Mare Nostrum 4 / Ordenadores rack servidores cables datos datacenter Foto: Llibert Teixidó

“Se ha tomado un comentario improvisado y se ha convertido en una estadística real que está influyendo en la política y en la forma de ver estas cosas. El verdadero problema es que no tenemos cifras. Incluso los cálculos caseros que se pueden encontrar tienden a tomarse como la regla de oro, pero no es así”, reniega esta científica. En los últimos años, por una tecnología muy intensiva de recursos que ha crecido en paralelo a la aceleración del calentamiento global -el 2024 fue el primer año en cruzar la línea roja de +1,5ºC respecto a la era preindustrial-, son muchas las analogías lanzadas sobre los costes ambientales de la IA.

Que ChatGPT consume un litro de agua por cada 100 preguntas. Que 0,14 kilovatios-hora (kWh) de electricidad, lo que equivale a alimentar 14 bombillas LED durante 1 hora, por un correo electrónico redactado por un chatbot. Para Luccioni, responsable de clima de la empresa de IA Hugging Face, estas comparaciones suelen ser poco rigurosas por dos motivos: la complejidad de calcular la huella de carbono, que varía según los modelos, las tarea, el tamaño de los servidores y la ubicación de los centros de datos; y “los datos mínimos” que entregan las empresas.

En su investigación, esta científica explica que “la divulgación directa de información ambiental alcanzó su punto máximo en 2022”, cuando el 10 % de los modelos de lenguaje publicaron algún grado de información. Sin embargo, tras el lanzamiento de ChatGPT, esta tendencia se revirtió. “Para el primer trimestre de 2025, la mayoría de los modelos de IA destacados volvieron a estar en la categoría de “sin divulgación””, lamenta.

A su juicio, esta disminución de la transparencia es “particularmente preocupante dado el creciente impacto ambiental de la IA en un contexto de preocupación por el clima global y la inminente amenaza de los límites planetarios”. Es inexplicable, agrega, que otras industrias contaminantes y muy competitivas, como la alimentaria, la sanitaria o el transporte, sí sean transparentes y que la IA “siga con esta opacidad”.

Lo único cierto es que no tenemos métricas para saber el impacto ambiental de la IA

“Me sorprende que puedas comprar un auto y saber cuántos kilómetros por litro consume, y sin embargo utilicemos todas estas herramientas de inteligencia artificial todos los días y no tengamos absolutamente ninguna métrica de eficiencia, factores de emisiones, nada”, insistió Luccioni sobre esta apagón informativo en declaraciones brindadas a la revista estadounidense Wired.

Los únicos datos de fuentes confiables que hay son genéricos. Semanas atrás, la Unión Internacional de Telecomunicaciones (UIT), el organismo especializado en telecomunicaciones de la Organización de las Naciones Unidas (ONU), informó que cuatro de las mayores empresas de IA del mundo vieron crecer las emisiones indirectas de carbono en más de un 150% en los últimos tres años.

Según el informe, Amazon, Microsoft, la empresa matriz de Google, Alphabet, y Meta han experimentado un aumento de las emisiones producidas o adquiridas por las empresas debido a la “expansión de la infraestructura de datos y el uso de energía”. Las emisiones indirectas son las que proceden de la electricidad comprada, el calor, el vapor o el uso de electricidad, como en los centros de datos, las redes de telecomunicaciones o los edificios de oficinas. Amazon registró el mayor incremento en su contaminación, con más del 182% en 2023 en comparación con 2020, seguido de Microsoft, con un 155%, Meta, con un 145%, y Alphabet, con un 138%.

Lo que puede hacer cada usuario

Horizontal

Una mujer usa unas gafas der ealidad virtual 

Miquel Gonzalez / Shooting / Colaboradores

Lo que está claro, señala Maximilian Dauner, estudiante de doctorado de la Universidad de Ciencias Aplicadas de Múnich, autora del informe “Costes energéticos de la comunicación con IA”, publicado días atrás por la revista Frontiers, es que no todos los modelos de lenguaje contaminan por igual. Algunas preguntas a la IA emiten hasta 50 veces más CO2 que otras.

Su equipo de trabajo comparó el impacto ambiental de 14 modelos de IA generativa de código abierto -OpenAI, por ejemplo, mantiene sus modelos en propiedad, lo que significa que investigadores externos no pueden verificar de forma independiente su uso de energía- con un ejercicio de 100 preguntas sobre cultura general o matemáticas

El examen de los resultados permitió confirmar que los modelos que aplican procesos de razonamiento más elaborados, generan muchas más emisiones que aquellos que ofrecen respuestas concisas. Por ejemplo, el modelo que obtuvo la mayor precisión (84,9 %) en las respuestas, emitió tres veces más CO2 que otros de tamaño similar con respuestas más concisas. “Se puede reducir la huella de carbono de las respuestas de los modelos de lenguajes aproximadamente 10 veces”, aclara Duaner.

Lo importante, dice, es comprender que para resolver una tarea sencilla, una pregunta sobre las condiciones meteorológicas o la ruta para un determinado trayecto, lo mejor es optar por un modelo pequeño, que entrega un resultado idéntico al de un modelo grande, pero con mucha menos contaminación.

Lee también

DeepSeek pone a dieta a las tecnológicas de EE.UU.

Ramón Peco
Horizontal

El estudio pone este ejemplo: para responder 600 mil preguntas, DeepSeek, la IA china, necesita emitir la misma cantidad de CO2 que un vuelo de ida y vuelta de Londres a Nueva York. En cambio, otro modelo, Qwen 2.5, más pequeño, entrenado con menos parámetros, entrega esa misma cantidad de respuestas con un cuarto de emisiones.

Otro consejo para un uso más eficiente de la IA es evitar la cortesía, lo que genera respuestas y preguntas más largas que requieren más energía. “La IA gasta mucha energía siendo cortés, especialmente si el usuario también lo es, diciendo ‘por favor’ y ‘gracias’”, explica. “Lo mejor es una comunicación bien directa, sin distracciones”, resume.

“Si eres ingeniero de software y resuelves problemas complejos de codificación a diario, puede ser necesario un modelo de IA especializado en programación. Pero para un estudiante de secundaria que solo busca ayuda con las tareas, depender de herramientas de IA potentes es como usar una calculadora digital impulsada por energía nuclear”, ilustra esta experta alemana.

La difusión de estos datos, agrega, es “clave” para que los usuarios puedan tomar decisiones informadas sobre el uso de estas tecnologías. “En general, si la gente estuviera más informada sobre el coste ambiental promedio de generar una respuesta, tal vez empezaría a preguntarse: ¿Es realmente necesario convertirme en figura de acción solo porque estoy aburrido? O ¿de verdad necesito contarle chistes a ChatGPT porque no tengo nada que hacer?’”, interpela Dauner.

La Unesco avala las recomendaciones científicas. En su reciente informe, sugiere a la industria elaborar modelos de lenguaje “más pequeños” y reducir tanto el tamaño de las instrucciones (prompts) como a la extensión de las respuestas que devuelven las máquinas. Con estos cambios, se puede reducir el consumo de energía hasta en un 90 %. 

No hay sostenibilidad posible ante una demanda de recursos que sigue creciendo

Staff WriterProfesora e investigadora en Inteligencia Artificial
Horizontal

Una exposición centrada en IA en el Mobile World Congress

Mané Espinosa / Propias

Ana Valdivia es profesora e investigadora en Inteligencia Artificial, Gobierno y Políticas en el Oxford Internet Institute de la Universidad de Oxford. Lleva años indagando en la huella de carbono de esta industria. Celebra los esfuerzos de sus colegas por identificar cómo los ciudadanos pueden ser más eficientes en sus requerimientos, pero aclara que hay una inercia sistémica, de una demanda imparable de más recursos, que va a contramano de un consumo sostenible.

Pone en ejemplo de la IA integrada a WhatsApp, instalada en todos los móviles del mundo, sin que “nadie la haya pedido”. “Necesitamos no sólo más transparencia, sino también más debates democráticos. Como sociedad necesitamos debatir qué tipo de tecnología queremos. Y que se nos informe de lo que implica que se instale un centro de datos al lado de nuestras casas”, reflexiona.

Lee también

“Si los usuarios supieran el CO₂ que genera cada petición que hacen a la IA, tal vez se lo pensarían dos veces antes de convertir su foto en un muñeco de acción”

Eva Rodríguez
Crear imágenes con ChatGPT resulta muy perjudicial para el planeta.

Valdivia apunta que sí hay margen para “desescalar” a nivel de infraestructura, para que los ciudadanos se opongan a la instalación de centros de datos en lugares donde los recursos (electricidad y agua) son escasos. “Sabemos que los centros de datos utilizan casi un 2% de la energía total mundial, pero ese porcentaje se tiene que mirar también desde una perspectiva local. En Irlanda, ese 2% se transforma en un 20%”, revela.

Esta voracidad de recurso de la IA, agrega la experta, explica muchas de las actuales tensiones geopolíticas. “La competencia es cada vez más feroz. La puja entre Estados Unidos y China por Taiwán es, en gran medida, por su fábrica de chip para la IA, única en el mundo”, contextualiza.

La científica cita una analogía que ha obtenido de sus investigaciones para graficar una problemática que, repite, excede a los loables atajos de los ciudadanos por contaminar menos. Llama, el nuevo modelo de lenguaje de Meta, consumió 22 millones de litros de agua en 97 días durante su desarrollo, lo que equivale al agua que una persona en la ciudad de Barcelona gastaría en 600 años.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...