La IA dispara el consum d’energia d’una manera voraç i poc transparent

La crisi ambiental

Uns 1.000 milions de persones fan servir diàriament eines d’IA generativa

Una emprleada de Google revisa una CPU en uno de los centros de datos de la compañía en The Dalles (Oregon)

Una treballadora de Google revisant una unitat de processament en un dels centres de dades de la companyia aThe Dalles(EUA)

Google

El 45% dels espanyols van afirmar l’any passat que havien fet servir intel·ligència artificial (IA) generativa, principalment per a la feina, els projectes personals o els estudis. La dada apareix en una enquesta mundial duta a terme per Google amb participació de 21.000 persones, mil de les quals a la península Ibèrica. Que més de vint milions de persones d’un país facin servir en les tasques diàries eines com ChatGPT o Deepseek té un impacte ambiental –alt consum d’energia i aigua– que els científics estan intentant quantificar en un planeta en crisi pel canvi climàtic.

En vista de l’opacitat de les grans empreses digitals, que cada vegada faciliten menys informació sobre les petjades de carboni dels seus sofisticats models, alguns experts comencen a elaborar guies per fer servir la IA de la manera més eficient energèticament. Com? Triant les aplicacions segons la necessitat –les que més raonen generen més emissions– i evitant les interaccions supèrflues, de cortesia, com les salutacions o les gràcies.

La Unesco estima que hi ha 1.000 milions de persones que fan servir diàriament eines d’IA generativa. Cada interacció consumeix una mitjana de 0,34 watts/hora, fet que equival a 310 gigawatts/hora per any. Això quanta energia és? L’ús anual d’electricitat de més de tres milions de persones a Etiòpia, per exemple.

Quan es parla dels impactes de la IA, les xifres que es difonen no solen ser de fonts fiables, com el cas de la Unesco. Hi ha una frase que es repeteix i que a Sasha Luccioni, informàtica canadenca especialitzada en intel·ligència artificial i canvi climàtic, li grinyola: “ChatGPT consumeix deu vegades més energia que una recerca mitjana a Google”. En la seva investigació recent, l’experta rastreja, sense èxit, l’origen d’aquesta sentència. “Aquest comentari improvisat s’ha convertit en una estadística real que està influint en la política i en la manera de veure aquestes coses. El veritable problema és que no tenim xifres. Fins i tot els càlculs casolans que es poden trobar es tendeixen a prendre com la regla d’or, però no ho són”, es queixa.

Són moltes les analogies que s’han fet sobre els costos ambientals de la IA. Que ChatGPT consumeix un litre d’aigua per cada 100 preguntes. Que 0,14 kilowatts/hora (kWh) d’electricitat, cosa que equival a alimentar 14 bombetes LED durant una hora, per un correu electrònic redactat per un xatbot. Per Luccioni, responsable de clima de l’empresa d’IA Hugging Face, aquestes comparacions solen ser poc rigoroses per dos motius: la complexitat de calcular la petjada de carboni, que varia segons els models, les tasques, la mida dels servidors i la ubicació dels centres de dades; i “les dades mínimes” que lliuren les empreses.

En la seva investigació, aquesta científica explica que “la divulgació directa d’informació ambiental va arribar al seu punt màxim el 2022”, quan el 10% dels models de llenguatge van publicar algun grau d’informació. Tot i això, després del llançament de ChatGPT, aquesta tendència es va invertir. “Cap al primer trimestre del 2025 la majoria dels models d’IA destacats van tornar a estar en la categoria de sense divulgació ”, lamenta.

Amazon, Microsoft i Meta augmenten les emissions a causa de l’expansió de les seves infraestructures

A parer seu, aquesta disminució de la transparència és particularment preocupant atès el creixent impacte ambiental de la IA. És inexplicable, afegeix, que altres indústries altament consumidores d’energia, com ara l’alimentària, la sanitària o el transport, sí que siguin transparents i que la IA “ continuï amb aquesta opacitat”. “Em sorprèn que puguis comprar un automòbil i saber quants litres per quilòmetre consumeixi, i que, tot i això, fem servir totes aquestes eines d’intel·ligència artificial cada dia i no tinguem absolutament cap mètrica d’eficiència, factors d’emissions, res”, ha insistit Luccioni sobre aquesta apagada informativa en declaracions a la revista Wired .

Les dades fiables són genèriques. La Unió Internacional de Telecomunicacions, l’organisme especialitzat en teleco­municacions de l’ Organització de les Nacions Unides (ONU), ha informat que quatre de les empreses d’IA més grans del món van veure créixer les emissions indirectes de carboni més d’un 150% en els últims tres anys.

Segons l’informe, Amazon, Microsoft, Alphabet (l’empresa matriu de Google) i Meta han experimentat un augment de les emissions produïdes o adquirides per les empreses a causa de l’“expansió de la infraestructura de dades i l’ús d’energia”. Amazon va registrar l’increment d’emissions més gran, amb més del 182% el 2023 en comparació amb el 2020, seguida de Microsoft, amb un 155%, Meta, amb un 145%, i Alphabet, amb un 138%.

El que queda clar, assenyala Maximilian Dauner, autor de l’informe Costos energètics de la comunicació amb IA , és que no tots els models de llenguatge tenen el mateix nivell d’emissions. Algunes preguntes a la IA emeten fins a cinquanta vegades més CO2que d’altres.

El seu equip de treball va comparar l’impacte ambiental de catorze models d’IA generativa de codi obert –OpenAI, per exemple, manté els seus models en propietat, cosa que significa que els investigadors externs no poden verificar d’una manera independent el seu ús d’energia– amb un exercici de cent preguntes sobre cultura general o matemàtiques.

L’examen dels resultats va permetre confirmar que els models que apliquen processos de raonament més elaborats generen moltes més emissions que els que ofereixen respostes concises. Per exemple, el model que va obtenir la precisió més gran (84,9%) en les respostes, va emetre tres vegades més CO2que d’altres de mida semblant amb respostes més concises. “Es pot reduir la petjada de carboni de les respostes dels models de llenguatges aproximadament deu vegades”, aclareix Dauner.

Instruccions més racionals poden reduir el consum d’energia fins a un 90%

El més important, diu, és comprendre que, per resoldre una tasca senzilla, una pregunta sobre les condicions meteorològiques o la ruta per a un trajecte determinat, el millor és optar per un model petit, que lliura un resultat idèntic al d’un model gran, però amb molta menys conta­minació.

L’estudi posa aquest exemple: per respondre 600.000 preguntes, DeepSeek, la IA xinesa, necessita emetre la mateixa quantitat de CO2que un vol d’anada i tornada de Londres a Nova York. En canvi, un altre model, Qwen 2.5, més petit, entrenat amb menys paràmetres, lliura la mateixa quantitat de respostes amb un quart d’emissions.

Un altre consell per a un ús més eficient de la IA és evitar la cortesia, cosa que genera respostes i preguntes més llargues que requereixen més energia. “La IA gasta molta energia sent cortès, especialment si l’usuari també ho és, dient ‘sisplau’ i ‘gràcies’”, explica. “El millor és una comunicació ben directa, sense distraccions”, resumeix.

“Si ets enginyer de software i resols problemes complexos de codificació diàriament, pot ser necessari un model d’IA especialitzat en programació. Però per a un estudiant de secundària que només cerca ajuda amb les tasques, dependre d’eines d’IA potents és com fer servir una calculadora digital impulsada per energia nuclear”, il·lustra aquesta experta alemanya.

La difusió d’aquestes dades, afegeix, és “clau” perquè els usuaris puguin prendre decisions informades sobre l’ús d’aquestes tecnologies. “En general, si la gent estigués més informada sobre el cost ambiental mitjà de generar una resposta, potser començaria a preguntar-se: és realment necessari convertir-me en figura d’acció només perquè estic avorrit?”, interpel·la Dauner.

La Unesco suggereix a la indústria d’elaborar models de llenguatge “més petits” i reduir tant la mida de les instruccions ( prompts ) com l’extensió de les respostes que tornen les màquines. Amb aquests canvis, es pot reduir el consum d’energia fins a un 90%. “No hi ha sostenibilitat possible davant una demanda de recursos que continua creixent”.

Les grans tecnològiques són reticents a fer públics els seus consums d’energia i aigua

Ana Valdivia, professora i investigadora en IA a la Universitat d’Oxford, fa anys que indaga en la petjada de carboni d’aquesta indústria. Celebra els esforços dels seus col·legues per identificar com els ciutadans poden ser més eficients, però aclareix que hi ha una inèrcia sistèmica, una demanda imparable de més recursos, que contradiu el consum racional.

Posa l’exemple de la IA integrada a WhatsApp, instal·lada a tots els mòbils del món, sense que “ningú l’hagi demanada”. “ Necessitem no només més transparència, sinó també més debats democràtics. Com a societat necessitem debatre quina mena de tecnologia volem. I que se’ns informi del que im­plica que s’instal·li un centre de dades al costat de casa nostra”, reflexiona.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...