Sam Altman, CEO de OpenAI: “Una consulta ChatGPT consume lo mismo que un horno en poco más de un segundo o una bombilla de alta eficiencia en un par de minutos”

Mantenimiento IA

Sam Altman, durante una conferencia.

Sam Altman, durante una conferencia.

YouTube TED

Cada vez que alguien lanza una consulta a ChatGPT, se pone en marcha una maquinaria invisible que consume no sólo electricidad, sino también agua. Sam Altman, CEO de OpenAI, ha querido poner cifras concretas sobre la mesa para parar las habladurías. En The Verge Altman estimó que una consulta promedio al chatbot requiere alrededor de 0,34 vatios-hora. Para ponerlo en perspectiva: es la energía que consume un horno en algo más de un segundo, o una bombilla LED eficiente funcionando durante unos dos minutos.

Un pequeño trago por cada pregunta

La IA tiene un mantenimiento.

La IA tiene un mantenimiento.

Canva

Aunque ese dato suene inofensivo de forma aislada, el verdadero alcance se revela al considerar los millones de peticiones que se procesan cada día. La cifra se multiplica de forma escalofriante. Y es que, como él mismo apunta, “no es un proceso gratuito”. Cada interacción con ChatGPT implica un uso energético. Esta actividad se desarrolla en centros de datos que requieren no sólo potencia eléctrica constante, sino sistemas de refrigeración que aseguren su funcionamiento óptimo.

Altman señaló que cada consulta a ChatGPT consume alrededor de 0,000085 galones de agua, es decir, unos 0,00032 litros. “Una decimoquinta parte de una cucharadita”, según sus palabras, pero acumulativamente, eso representa una carga hídrica nada despreciable. Resulta complejo ignorar que las cifras, aunque aparentemente pequeñas por uso individual, escalan con rapidez. OpenAI tuvo que salir a justificar y detallar estos datos tras la publicación inicial de Altman, debido a la ausencia de referencias en su declaración original.

El agua se utiliza principalmente en los sistemas de refrigeración de los servidores, a menudo mediante evaporación en torres de enfriamiento. Aquí es donde entra el dato que más curioso: según Pedro Martínez Santos, hidrogeólogo y profesor en la Universidad Complutense de Madrid, el entrenamiento de modelos de IA como GPT-3 pudo haber requerido hasta 700.000 litros de agua dulce. Además, se calcula que por cada veinte respuestas que el sistema ofrece, se consume aproximadamente un litro de agua.

Lee también

La preocupación sobre el consumo de recursos no es exclusiva de OpenAI. Empresas del sector están considerando soluciones que van desde el uso de energía nuclear hasta la instalación de centros de datos en zonas geográficas con climas más húmedos, donde la refrigeración natural reduce la demanda hídrica. También se barajan estrategias regulatorias, incentivos fiscales e incluso etiquetas ecológicas que permitan identificar a las empresas tecnológicas más respetuosas con el medio ambiente. Parece que la próxima revolución tecnológica tendrá que ser también una revolución ecológica.

Etiquetas
Mostrar comentarios
Cargando siguiente contenido...