27 minutos
Hacer una simple consulta en ChatGPT puede suponer un consumo energético y de agua mucho mayor del que crees. La inteligencia artificial necesita una gran cantidad de recursos para los procesos que se ejecutan en centros de datos con el fin de entrenar a los diferentes modelos de lenguaje.
El agua es imprescindible para poder enfriar esos centros de datos y que trabajen sin recalentarse de manera adecuada. Si deseas saber cuánta agua consume la inteligencia artificial realmente y por qué, no te pierdas nada de este artículo donde te lo contamos con todo detalle.
La inteligencia artificial generativa (GenAI) se ha convertido en una parte integral de nuestras vidas. Se trata de un tipo de inteligencia artificial más avanzada, fuerte y profunda capaz de imitar la inteligencia humana con gran capacidad de comprender, razonar y aprender. Herramientas como ChatGPT, Midjourney, Google Bard, Dall-e, PyTorch etc presentan un uso sencillo pero para poder emplearlas llevan a cabo un proceso que consume grandes cantidades de recursos, incluyendo agua.
Este tipo de IA utiliza datos ingentes y modelos de lenguaje para funcionar. Para que los procesos salgan bien deben ejecutarse en centros de datos que necesitan una gran capacidad de cálculo.
Los centros de datos emplean unidades de procesamiento avanzadas y una infraestructura que consume una cantidad considerable de energía y agua.
Los centros de datos precisan altas cantidades de agua sobre todo para mantener temperaturas adecuadas para servidores y racks de hardware informático de gran densidad. El agua se emplea para enfriar estos centros con sistemas de humidificación que permiten un rango de humedad adecuado que garantice que todos los equipos del mismo edificio funcionan de manera correcta.
La eliminación efectiva de este calor es esencial para mantener los equipos operando dentro de los rangos de temperatura recomendados (entre 18 y 27 grados Celsius). Para entenderlo mejor podemos poner un símil con el motor de un automóvil que genera gran cantidad de calor y que si se sobrecalienta puede fallar. Lo mismo sucede con estos centros de datos para el funcionamiento de la inteligencia artificial, su calentamiento puede originar fallas en el sistema, tiempos de inactividad, reducción en la vida útil de los componentes y corrupción de datos.
En general para mantener la temperatura bajo control, estos centros cuentan con sistemas de enfriamiento industriales que permiten circular el agua de manera continua. Cada centro cuenta con torres de enfriamiento que necesitan millones de litros de agua al año para que esta infraestructura informática no se sobrecaliente y falle.
Para enfriar estos centros de datos de inteligencia artificial se emplea agua potable con el fin de prevenir contaminación de bacterias o corrosión de los equipos. En los sistemas de refrigeración, la mayor parte del agua se evapora y su reutilización no es posible. Al agua empleada para generar la inteligencia artificial también debemos sumar el agua que se emplea para que esta tecnología funcione correctamente, especialmente en centrales de carbón y gas natural.
A medida que los modelos de inteligencia artificial se vuelven más complejos y los conjuntos de datos más grandes, el proceso de entrenamiento necesita más recursos, mayor capacidad de refrigeración y por tanto más agua.
El entrenamiento de modelos de inteligencia artificial para el reconocimiento de imágenes o el procesamiento del lenguaje natural requiere una enorme cantidad de datos etiquetados para un rendimiento adecuado. Esto implica un consumo de agua mayor para mantener la infraestructura de hardware en funcionamiento.
Ante estas altas necesidades de consumo de agua por parte de la inteligencia artificial, debemos recordar que el agua es un recurso limitado en el planeta y los centros de datos siguen creciendo por lo que las dificultades para mantener el ritmo en el futuro pueden ser graves, especialmente en regiones propensas a la sequía. Esto puede llevar a un cierre de algunas de estas centrales o bien a una exigencia de agua excesiva que pueda dejar sin suministro a las comunidades y poblaciones. Debemos señalar que en lugares en los que la electricidad sea más barata o el agua escasea pueden utilizar la electricidad para enfriar los centros de datos.
Ahora ya sabemos cómo funciona el uso del agua para enfriar los centros de datos de inteligencia artificial pero ¿cuál es exactamente el consumo de agua que requiere la IA para funcionar? La respuesta es variable pero existen ciertos datos y estudios que pueden ayudarnos a dar respuesta a esta pregunta.
Para comenzar analizando la cantidad de agua que emplea la IA, podemos analizar el gasto que una herramienta tan empleada como ChatGPT, el chatbot de IA desarrollado por OpenaAI, hace de este recurso. En concreto, una búsqueda en ChatGPT consume tres veces más energía que una consulta hecha en el buscador de google.
Otra investigación llevada a cabo por la la Universidad de California recogida por The Washington Post en el que asegura que generar 100 palabras con GPT-4 consume unos 1. 408 litros de agua en algunos estados de EE. UU. Además de agua, generar ese centenar de palabras con ChatGPT implica un consumo promedio de 0,14 kWh, lo mismo que consumen 14 bombillas LED durante este tiempo. Como dato significativo, si solo el 10% de los trabajadores estadounidenses usara esta tecnología semanalmente, el gasto anual de electricidad equivaldría al consumo energético de todos los hogares de Washington, D.C., de más de 600.000 habitantes, durante 20 días.
Siguiendo con el análisis del consumo de agua por parte de modelos de lenguaje de IA como ChatGPT, investigadores de la Universidad de Riverside (California) y de la Universidad de Arlington (Texas) publicaron en octubre de 2023 un estudio titulado ‘Making AI Less ‘Thirsty’: Uncovering and Addresing the Secret Water Footprint of AI Models’ (‘Hacer que la IA «tenga menos sed».
El resultado fue que durante su entrenamiento en centros de datos de última generación de Microsoft en Estados Unidos, GPT-3, podía consumir un total de 700.000 de litros de agua. Para responder a entre 10 y 50 solicitudes, necesitaba 500 ml de agua, una cifra que puede variar en función de la complejidad de la petición.
No solo se emplea agua para dar respuesta a las solicitudes sino que estos modelos también usan agua en su entrenamiento. De hecho entrenar GPT-3 tiene el mismo costo de agua que producir unos 45 kg de carne de vaca, casi el doble de la cantidad que un estadounidense promedio come en un año. En cuanto a electricidad, puede consumir tanta como 120 casas en promedio durante un año. En el caso de GPT-4 los servidores basados en este modelo ejecutan más cálculos para afinar las respuestas y por tanto esta versión requiere 519 ml de agua, poco más de una botella, para generar tan solo un correo electrónico de cien palabras.
El estudio del que hablamos al comienzo del Washington Post recoge también que los centros de datos gastan grandes cantidades de energía en otras actividades como la computación en la nube.
Al hablar de consumo de recursos por parte de la IA, no podemos olvidar el gasto de energía y no solo de agua que consumen este tipo de modelos.
Si echamos un vistazo al gasto energético, el consumo eléctrico de la inteligencia artificial varía ampliamente dependiendo de la escala y el tipo de operación que se realice. Para entrenar modelos de IA, el consumo es especialmente elevado en modelos de aprendizaje profundo. Por ejemplo, el modelo de lenguaje avanzado CPT-3 requiere entrenar con miles de GPUs durante semanas, lo que consume cantidades significativas de electricidad. En concreto entre entre 1 y 3 gigavatios-hora (GWh) de energía eléctrica. Esto equivale al consumo eléctrico promedio de unos 300 hogares estadounidenses durante un año.
Según estimaciones recientes, entrenar un solo modelo puede emitir hasta cientos de toneladas de CO2, equiparable a las emisiones anuales de varios automóviles.
Entrenar modelos más pequeños de IA no necesitan tantos recursos, por ejemplo un modelo de computadora normal puede consumir entre 1 y 10 MWh.
Las operaciones de inferencia en la nube pueden consumir entre 0.1 y 1 kWh por cada mil solicitudes. Los sistemas de IA para tareas en tiempo real consumen menos energía en comparación con el entrenamiento.
Según datos recientes de 2023 se calcula que los centros de datos que soporten sistemas de IA consumen alrededor del 1-2% de la electricidad mundial, muchos destinados a aplicaciones de IA. Informes recientes señalan que el consumo global de electricidad para entrenar modelos de IA equivale a entre 200 y 250 TWh (teravatios-hora) por año, aproximadamente el 0.8-1% del consumo global de electricidad.
Para saber más sobre las necesidades energéticas que puede generar una IA es importante conocer un poco más sobre los centros de datos de IA. Estos centros de los que ya hemos hablado son el corazón tecnológico que impulsa sistemas de reconocimiento por voz o modelos generativos avanzados. Manejan una cantidad ingente de datos no estructurados y son piezas fundamentales en la arquitectura digital mundial del presente.
Están optimizados para manejar algoritmos complejos, redes neuronales profundas y grandes volúmenes de datos. Para funcionar emplean hardware especializado, como unidades de procesamiento gráfico (GPU) y unidades de procesamiento tensorial (TPU). Su arquitectura incluye redes de alta velocidad para conectar muchos servidores. Las redes emplean tecnologías avanzadas como InfiniBand o Ethernet de alta velocidad para reducir la latencia en la transferencia de datos. Además usan hardware especializado, es decir, procesadores diseñados para realizar miles de cálculos a la vez, algo clave para entrenar modelos de aprendizaje profundo. En cuanto al software, incluye sistemas operativos optimizados, como Linux, y tecnologías de virtualización para dividir recursos físicos en múltiples instancias virtuales.
Los centros de datos de IA se suelen situar en regiones con climas fríos para así no gastar tanto en refrigeración y por tanto consumir menos energía ya que, como hemos visto antes, las operaciones de IA conllevan un consumo enorme de electricidad y agua para poder funcionar correctamente.
Estos centros de datos de IA emplean plataformas de inteligencia artificial optimizadas con hardware especializado para que escalen horizontalmente entre cientos o miles de servidores. Deben contar además con sistemas de almacenamiento que permitan manejar datos a gran escala.
En un centro de datos de IA se lleva a cabo un proceso que incluye el entrenamiento intensivo de modelos para aprender patrones y relaciones. Este entrenamiento implica cálculos matemáticos complejos y necesita para su funcionamiento un consumo alto de recursos como agua o energía en la central de datos para mantener las GPUs y TPUs que llevan a cabo este entrenamiento. Otro proceso que también requiere recursos dentro de las centrales de datos es la inferencia, es decir, el uso de un modelo entrenado para hacer predicciones. Los datos en los centros se almacenan en sistemas distribuidos para garantizar su disponibilidad y escalabilidad.
La cuestión del consumo excesivo de energía por parte de los centros de datos y especialmente de agua para enfriar los servidores es un punto que preocupa a los generadores de IA. Ante este problema se plantean algunas soluciones como adoptar energías renovables o uso de sistemas modulares o sistemas de refrigeración avanzados. Para dar solución a las demandas en el procesamiento de datos las centrales deben desarrollar hardware más potente y optimizar sus algoritmos. Entre las innovaciones tecnológicas que estas centrales de datos de IA están experimentando se encuentran algunas como computación cuántica para cambiar los modelos de entrenamiento de la IA, integrar la IA para mejorar su eficiencia o incluso usar materiales como chips basado en carburo de silicio o grafeno para aumentar la eficiencia energética.
El lugar donde se ubican estos centros de datos es otro factor importante a la hora de saber qué cantidad de agua gastan. Por ejemplo, si se ubican en regiones cálidas, donde muchas empresas lo están haciendo para aprovechar la energía solar, van a necesitar mucha más agua y electricidad para que estos servidores se enfríen a la temperatura adecuada. Procesar datos durante la noche o en horas de baja demanda requiere menos agua que hacerlo durante el día o en horas pico. Lo mismo para si es verano o invierno.
Echando un vistazo al mundo sabemos que Estados Unidos es el lugar con más centros de datos, cuenta con más de 5.000.
Por ejemplo y según el informe del Washington Post, en el norte de Virginia es donde se concentran más datos del mundo y en West Des Moines, Iowa, un foco emergente de centros de datos, las instalaciones gestionadas por empresas como Microsoft utilizaban alrededor del 6% de toda el agua del distrito.
Las necesidades de refrigeración de los centros de datos han aumentado tanto con la IA que en 2023 esa cifra era de apenas el 18%.
En este sentido, las grandes tecnológicas han experimentado un aumento del consumo de agua; entre 2021 y 2022, el uso de agua de los centros de datos de Google aumentó en un 20%. El de Microsoft, que aloja parcialmente a ChatGPT, en un 34%. Recientemente, Google publicó su informe medioambiental donde asegura que su huella de carbono aumentó un 48%, en gran medida debido a la IA y los centros de datos. También repuso solo el 18% del agua que consumió. En el caso de Meta cabe destacar un dato significativo, la tecnológica empleó 22 millones de litros de agua para entrenar su código abierto LLaMA-3. La compañía de Zuckerberg va a ubicar un hipercentro de datos en Talavera de la Reina que requerirá unos 504 millones de litros de agua potable al año.
Las predicciones sobre la huella hídrica de las IA no son muy alentadoras para el futuro. De este modo, y según el estudio “Cómo hacer que la IA sea menos «sedienta»: descubrir y abordar la huella hídrica secreta de los modelos de IA” de la Universidad de Cornell del año 2023 se extrae que la demanda mundial de IA puede ser responsable de la extracción de agua de 4.2 a 6.6 mil millones de metros cúbicos en 2027, lo que es más que la extracción anual total de agua de Dinamarca o la mitad del Reino Unido.
Con todo en relación al consumo de agua, Microsoft aspira a reducir en un 95% su consumo, y Google a reponer más agua de la que utiliza para 2030.
La Agencia Internacional de Energía asegura que los centros de datos que almacenan información para estas tecnologías de IA, son responsables en la actualidad del 1% de las emisiones de efecto invernadero. Esta cifra puede aumentar con el paso del tiempo ya que el número de usuarios de inteligencia artificial alrededor del mundo no deja de crecer.
La UNESCO recomienda que “en situaciones donde existan impactos negativos desproporcionados en el medio ambiente, no se debe utilizar la inteligencia artificial.
El nivel de consumo de agua de la IA depende de ciertos factores como la ubicación geográfica pero también de otros como el tipo de inteligencia artificial que vamos a emplear o a entrenar. Vamos a ver cuánto consume cada tipo de IA y las consecuencias en el entorno.
En este grupo se incluyen algoritmos básicos de recomendación o clasificación y el consumo de agua es bajo. Por tanto, tienen un impacto ambiental limitado ya que necesitan poca capacidad de procesamiento.
En esta clasificación se engloban por ejemplo redes neuronales que se usan para el procesamiento del lenguaje natural o para reconocer imágenes. En estos casos, el consumo relativo de agua es alto o moderado. Estos modelos de IA suelen requerir grandes cantidades de datos y tiempo de computación por lo que necesitarán más agua para funcionar correctamente y enfriar los centros de datos.
En este tipo de modelos se consumen millones de litros de agua durante su entrenamiento ya que se emplean servidores de alto rendimiento de manera intensiva. En esta categoría se incluyen modelos de inteligencia generativa como GPT que necesitan gran cantidad de parámetros para su entrenamiento.
En estos el consumo es relativo y depende del tiempo de uso. Por lo general requieren un entrenamiento inicial intensivo y el consumo relativo depende del nivel de uso. Se incluyen aquí herramientas como chatbots, asistentes de voz o servicios de traducción en tiempo real.
Tradicionalmente para enfriar los centros de datos computacionales se empleaban los sistemas de Aire Acondicionado de Sala de Computadoras (CRAC) y las Unidades de Manejo de Aire de Sala de Computadoras (CRAH).
Se trata de métodos que implican usar aire acondicionado para enfriar grandes volúmenes de aire que luego se bombean a través de los racks de servidores.
El aumento de la densidad y potencia de los equipos y sobre todo la aparición de la IA y sus necesidades en cuanto a manejo y entrenamiento de datos han hecho estas técnicas mucho menos eficientes y por tanto han obligado a la implantación de otras fórmulas para enfriar los centros de datos.
La refrigeración por líquido ha ganado terreno desde hace años como alternativa eficaz para gestionar las demandas térmicas en centros de datos. Este tipo de refrigeración elimina el calor cerca de los servidores y reduce pérdidas de energía. Vamos a ver los tipos de refrigeración por líquido:
El consumo excesivo de agua por parte de la inteligencia artificial plantea preocupaciones ambientales significativas, especialmente en aquellos lugares donde este recurso escasea. Si el desarrollo de la IA sigue en la misma línea creciente, en el futuro esta huella hídrica puede provocar consecuencias devastadoras en el entorno natural. Vamos a ver en profundidad cuáles pueden ser y su alcance:
La necesidad de grandes consumos de datos para enfriar las centrales de datos de IA conlleva una sobreexplotación de fuentes de agua dulce necesaria para esta tarea. En áreas donde los recursos hídricos son limitados o donde el acceso al agua para las personas es complicado, usarla para este fin puede reducir aún más la disponibilidad para las comunidades locales y el uso personal, agrícola o industrial. Como consecuencia se reducirá su calidad de vida y su bienestar.
Lo mismo sucede con la sobreexplotación de acuíferos por la extracción excesiva de agua para enfriar los servidores de la IA. Esto puede hacer que el suministro de agua sea escaso en el futuro pero también puede hacer que se den problemas geológicos como hundimientos de tierra.
Los centros de datos suelen usar agua para enfriar sus sistemas que devuelven al medio ambiente a temperatura más alta. Esto se conoce como descarga térmica y afecta a los ecosistemas acuáticos. Este aumento en la temperatura del agua puede hacer que los hábitats naturales se alteran y por tanto que se modifique también la alimentación, reproducción y supervivencia de especies acuáticas. Las especies sensibles al calor serán las primeras en sufrir daños con esta alteración. Por último, dentro de estos posibles daños se contempla también la contaminación del agua que puede tener sustancias químicas o residuos que contaminen ríos y lagos cercanos si no se trata de manera adecuada.
El impacto del consumo de agua en IA también incluye agua usada en generar electricidad para alimentar las infraestructuras. Plantas térmicas y nucleares requieren agua para generar energía y el consumo indirecto de agua crece a medida que los sistemas de IA también la demandan. Este es un doble impacto que produce una huella hídrica mayor y que puede afectar a varias regiones.
El consumo de agua por parte de los sistemas de IA puede provocar tensiones económicas y locales debido a la menor disponibilidad de agua por parte de las comunidades. Actividades como la agricultura, la ganadería y el consumo humano se pueden ver afectados. La construcción de centros de datos en algunas regiones puede acaparar los recursos hídricos y hacer que aumenten las desigualdades.
Una consecuencia indirecta del gran consumo de agua por parte de la IA es la contribución al cambio climático. Las emisiones de carbono asociadas a centros de datos de IA pueden provocar calentamiento global, alterar patrones de lluvia y reducir el acceso al agua en algunas regiones. Al haber más calentamiento, los climas se vuelven más cálidos y por tanto las centrales de datos necesitan más agua para refrigerarse creándose así un círculo vicioso.
Algunas empresas tecnológicas no informan ni dan a conocer la cantidad exacta de agua que utilizan sus centros de datos. Esto hace que las políticas para gestionar este recurso sean más escasas o se prioricen a las grandes empresas sobre las necesidades de las comunidades locales.
Para caminar hacia una inteligencia artificial más sostenible son necesarias medidas comprometidas con el medio ambiente.
En este sentido, la Comisión Electrotécnica Internacional ha publicado el primer estándar internacional del mundo para la sostenibilidad en IA. Se trata de un informe técnico que cubre todos los aspectos en los que la IA y la sostenibilidad medioambiental coinciden. Esto incluye desde el consumo de energía y agua, los residuos, la huella de carbono, el ciclo de vida del sistema de IA y las cadenas de suministro. También se incluyen formas de medir los aspectos de sostenibilidad medioambiental de los sistemas de IA, como la eficiencia energética, las materias primas, el transporte y el agua, así como enfoques para reducir los impactos de la sostenibilidad medioambiental de los sistemas de IA.
Para poder minimizar las consecuencias de la huella hídrica en el planeta provocada por el uso y desarrollo de la IA existen diversas fórmulas o estrategias que aplicadas a los centros de datos pueden conseguir mejores resultados para el futuro. Te las explicamos:
En resumen podemos decir que en el escenario futuro de refrigeración de centros de datos existen tres tendencias que pueden hacer más sostenible el uso de recursos y de agua por parte de estos centros de IA.
Si deseas saber más sobre el consumo de agua de la inteligencia artificial y sobre todo sobre cómo funciona y cuáles son sus entresijos puedes empezar formándote con un curso de especialización en inteligencia artificial.
El curso consta de tres módulos que te adentrarán en la ciencia y minería de datos, así como en el funcionamiento de las redes neuronales para el aprendizaje.
En esta formación adquirirás las habilidades para aplicar eficazmente la sintaxis del lenguaje Python en proyectos relacionados con la IA. Aprenderás a utilizar librerías de datos y a establecer conexiones con bases de datos para una gestión eficiente de la información. También sabrás cómo manejar la plataforma Kaggle.
Además, tendrás las herramientas para implementar los procesos de Inteligencia Artificial en sistemas informáticos preexistentes, para facilitar la transición de las empresas hacia la automatización. Es una tendencia en alza en muchos sectores que buscan impulsar su rendimiento.
Para esta formación de inteligencia artificial debes dominar la programación en Python para poder avanzar a buen ritmo en esta formación en Inteligencia Artificial. Te enseñaremos cómo aplicar la sintaxis del lenguaje en esta nueva tecnología. En este curso podrás disfrutar de hasta 300 horas de prácticas en cualquiera de las empresas con convenio o proponer una para un autoconvenio.
La Inteligencia Artificial se encuentra en su mejor momento. Las empresas comienzan a migrar sus sistemas, apuestan por la automatización y existen numerosos sectores que se podrían beneficiar de esta tecnología novedosa.
Estudiar Inteligencia Artificial te adentrará en un área con una gran innovación tecnológica, con múltiples aplicaciones y que te dará la oportunidad de trabajar en roles especializados. Es un campo campo que tiene una amplia proyección laboral. Algunas de las salidas profesionales son como desarrollador, experto en aprendizaje automático o analista de datos.
También encontrarás otras salidas laborales como consultor experto en la implementación de IA, especialista en Asistentes Virtuales o incluso continuar tu formación hasta convertirte en ingeniero de automatización de procesos.
Ahora ya sabes en profundidad cuánta agua consume la inteligencia artificial, cómo funcionan estos procesos y cómo optimizar mejor el funcionamiento de las grandes centrales de datos. Si deseas adentrarte más en el mundo de la IA lo ideal es hacerlo con un centro de estudios especializado y adaptado a tus necesidades. No dudes en contar con Campus Training. ¿Comenzamos?
Comprobamos el contenido y la veracidad del conocimiento presentado en este artículo a través de nuestro proceso editoria y de verificación de la información, para asegurarnos de que sea preciso y confiable
Conoce el proceso editorialBibliografía