Sam Altman, padre de ChatGPT: “Hacer una pregunta a la IA equivale aproximadamente a lo que consumiría un horno en poco más de un segundo o una bombilla de alta eficiencia en un par de minutos”
TECNOLOGÍA
El gasto energético que requieren los centros de datos donde se entrenan los modelos de inteligencia artificial supone un reto para la industria
FILE PHOTO: OpenAI CEO Sam Altman speaks to media following a Q&A at the OpenAI data center in Abilene, Texas, U.S., September 23, 2025. REUTERS/Shelby Tauber/Pool/File Photo
El auge de la inteligencia artificial no solo transforma industrias y agiliza procesos; también plantea un desafío silencioso pero creciente: el consumo de agua y energía de los centros de datos que la sustentan. Cada modelo entrenado, cada consulta procesada, requiere enormes recursos eléctricos y sistemas de refrigeración que dependen de agua y energía en grandes cantidades. Este impacto ambiental, a menudo invisible para el usuario, obliga a repensar la sostenibilidad tecnológica.
Sam Altman es CEO de OpenAI, la organización detrás de los modelos de inteligencia artificial GPT, incluyendo ChatGPT. En uno de los últimos artículos de su blog personal ha mostrado su preocupación sobre la demanda energética que provoca el uso de la Inteligencia Artificial. ¿Te has preguntado alguna vez el coste ambiental de tus búsquedas en la IA? Cada consulta suma en un desafío global que nos afecta a todos.
Sam Altman
Preocupación por el consumo energético
Consumo de energía. Conocedor de la preocupación que genera en los usuarios, Altman detalló en su blog el consumo que genera el uso de esta herramienta: “Una consulta media consume alrededor de 0,34 vatios-hora, lo que equivale aproximadamente a lo que consumiría un horno en poco más de un segundo o una bombilla de alta eficiencia en un par de minutos”, aclaró.
Consumo de agua. Por otro lado, también se debe tener en cuenta el inevitable consumo de agua que requiere la refrigeración de los centro de datos: “Se consumen alrededor de 0,00032176 litros de agua, aproximadamente una quinceava parte de una cucharadita”, expuso.
Los centros de IA podrían llegar a rivalizar con las ciudades en el consumo de energía
Preocupación. Altman es consciente de que parece una cifra pequeña a primera vista, pero hay que tener en cuenta el total de consultas diarias que recibe ChatGPT. Actualmente se cifran en torno a los 2.500 millones de solicitudes diarias y la situación es preocupante. En Estados Unidos, empresas como Google y Microsoft han anunciado planes para reducir el consumo de agua en sus centros de datos, una tendencia que podría extenderse a nivel global
Encuesta. Solo el 9 % de las empresas aprovechan la IA para optimizar su consumo energético, según un estudio. La encuesta, realizada en España entre 104 directivos de grandes empresas, revela que solo el 9 % de las compañías están utilizando la IA para optimizar su consumo energético, mientras que un 44 % no conocen ningún sistema de gestión energética basado en IA y un 33 % sabe de su existencia pero ignora sus beneficios.
Consumo eléctrico de una IA
Futuro. Una de las metas de organizaciones como OpenAI es crear una inteligencia artificial que pueda ayudar a mejorar la eficiencia energética. La idea es que esta misma IA pueda optimizar el consumo de energía y recursos de los propios sistemas de IA, contribuyendo a resolver uno de los grandes desafíos actuales. El futuro de la inteligencia artificial no solo dependerá de su capacidad para innovar, sino también de cómo logremos que su desarrollo y funcionamiento sean sostenibles, cuidando los recursos energéticos y ambientales que hacen posible su avance.