Cargando...
Tecnología

ChatGPT usa 2 litros de agua por 10 a 50 consultas: consume 4 veces más de lo que se creía

ChatGPT resuelve problemas en segundos, pero este tipo de IA requiere grandes cantidades de agua para funcionar. Expertos revelan que el consumo hídrico de estos sistemas es cuatro veces mayor al estimado previamente.

larepublica.pe
ChatGPT es un chatbot muy popular entre los internautas. Foto: composición LR/difusión

Los chatbots de inteligencia artificial, como ChatGPT, son populares entre los usuarios a nivel mundial por su capacidad de responder preguntas y resolver problemas en solo segundos. Sin embargo, especialistas de la Universidad de California en Riverside, descubrieron que la IA de OpenIA requiere 2 litros de agua para ejecutar entre diez y cincuenta preguntas. Esta cifra cuatro veces mayor de lo que se había calculado en anteriores estimaciones en donde la misma cantidad de consultas era igual a una botella de agua de 500 ml.

Los hallazgos provienen de una actualización de estudios anteriores, los cuales calculaban de menor forma el impacto de modelos como el GPT-3 en el uso de recursos naturales. Con las cantidades actuales, reveladas por Microsoft, creador de la IA Copilot, en su informe: “El consumo de energía (de GPT-3) será al menos cuatro veces mayor que la cifra que utilizamos. Esto también significa que la huella hídrica debería aumentar cuatro veces”, se confirma un incremento sustancial en el consumo de agua, impulsado por el crecimiento de los modelos de IA y sus complejas demandas de enfriamiento.

¿Por qué ChatGPT consume tanta agua por las consultas que le realizan?

El funcionamiento de ChatGPT y otras plataformas de inteligencia artificial depende de centros de datos que emplean grandes cantidades de agua para refrigerar sus equipos. Estos servidores, de alta densidad energética, generan calor extremo mientras procesan información, lo que obliga a las empresas tecnológicas a utilizar avanzados sistemas de enfriamiento por agua para evitar sobrecalentamientos.

Ejemplo del agua operativa de un centro de datos. Foto: captura de Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models

Según Shaolei Ren, experto de la Universidad de California en Riverside, en su estudio del 2023, 'Making AI Less “Thirsty”: Uncovering and Addressing the
Secret Water Footprint of AI Models', explicó que la refrigeración hídrica es fundamental para la operatividad de los centros de datos debido a la cantidad de energía transformada en calor.

En ese sentido, un servidor de IA puede consumir hasta 120 kW, el equivalente al calor generado por 120 calefactores de tres barras en un espacio reducido. Las impurezas en el agua utilizada pueden dañar los servidores, por lo que debe ser agua potable. Estados Unidos alberga más de 5.000 centros de datos, muchos de los cuales emplean enfriamiento por agua, lo que los convierte en importantes consumidores de este recurso.

¿Qué soluciones alternas hay para IAs como ChatGPT y así aminorar el consumo hídrico?

Con el crecimiento de la IA y la necesidad de más centros de datos, las empresas tecnológicas exploran otros métodos alternativos para reducir el consumo de agua. Algunos proveedores de tecnología, como Google, están implementando sistemas de refrigeración por aire.

Aunque a este gigante de la tecnología lo implementó en septiembre, luego de que su primer diseño de centro de datos fuese desechado y renovado por un sistema de refrigeración por aire.

Cabe precisar que los recientes informes de sostenibilidad de las grandes tecnológicas como Google, Microsoft y Meta, revelan aumentos de dos dígitos en el consumo de agua con 17%, 22,5% y 17 %. En ese sentido, estrategias que incluyen el uso de fuentes de agua no potable, como la recolección de agua de lluvia y el reciclaje de agua en sistemas de circuito cerrado, se vuelven una alternativa amigable con el medioambiente.

Un ejemplo es la empresa Digital Realty, centro de datos que reporta que el 43% de su consumo proviene de fuentes no potables, contribuyendo a la disminución de la demanda de agua potable. También se están desarrollando centros en climas fríos, como los países del norte de Europa, donde la refrigeración es menos dependiente de sistemas hídricos, aunque esto puede limitar el acceso rápido a datos debido a la latencia.

Para reducir aún más la huella hídrica de la IA, algunas empresas han comenzado a usar inteligencia artificial para optimizar el enfriamiento y la gestión de sus centros de datos. Google DeepMind, por ejemplo, ha implementado algoritmos que reducen hasta en un 40% el consumo de energía en sus sistemas de refrigeración.

La problemática del agua se ha vuelto particularmente relevante en áreas con estrés hídrico. Microsoft estima que el 41% del agua (igual a 3.100 piscinas olímpicas) utilizada en sus centros proviene de estas zonas, mientras que Google enfrentó críticas por sus planes de construcción de centros de datos en lugares de Sudamérica como Chile.

Respecto a Amazon, el especialista Ren afirma que "No ha publicado sus cifras totales de consumo de agua, ya que cree que se trata de una métrica errónea". En esta línea, la empresa es muy reservada con este tipo de cifras.