Para que ChatGPT te haya solucionado en un segundo la organización de los menús de la semana que viene, primero tuvo que pasar por un entrenamiento de aprendizaje a través de servidores específicos llamados GPU, que son unidades de procesamiento de gráficos, colocadas en largas filas en el interior de gigantescas instalaciones que forman los centros de datos. Pero el entrenamiento es solo una fase. Después estos sistemas siguen operando sin descanso: todas las herramientas de generación de contenido a las que consultamos también se nutren de estas instalaciones. Alimentar a ChatGPT, Claude, Copilot o Midjourney supone el mayor gasto energético desde que nos conectamos a internet por primera vez.
El punto de inflexión se produjo el 30 de noviembre de 2022, cuando OpenAI lanzó ChatGPT. Según la Agencia Internacional de la Energía (IEA), este hito en la historia de la tecnología marcó el inicio de un aumento en el consumo de recursos: los centros de GPU consumieron entre el 1% y el 1,3% de la electricidad mundial en 2022. Según datos de Google, propietaria del modelo de IA Gemini, la multinacional incrementó su consumo de energía un 16,2% en 2023.
Tres veces más contaminante
Pero si ya vivíamos conectados día y noche a la red, ¿qué ha cambiado con la IA para que el gasto se haya disparado? La diferencia está en la forma en la que buscamos la información: antes consultábamos solo a Google, que para trabajar necesita unos procesadores CPU, menos potentes que los GPU de los centros de la IA. Es decir, para que podamos obtener respuesta a una consulta a ChatGPT, las unidades de procesamiento de gráficos necesitan un consumo energético tres veces mayor que el de una búsqueda en Google, según datos del Instituto de la Ingeniería de España (IIE). Por ejemplo, solo la energía consumida por el entrenamiento de un modelo como GPT-3 es comparable al consumo de un hogar español durante 23 años (78.437 kWh).
Y no solo energía. Los nuevos chatbots necesitan agua para funcionar: tanto para la producción de electricidad como para la refrigeración de los equipos: el ambiente de los centros de datos se pulveriza para que los equipos no se calienten. Las Naciones Unidas para el Medio Ambiente (UNEP en sus siglas en inglés), advierte de que, en el ámbito global, la infraestructura relacionada con la IA podría consumir seis veces más agua que un país como Dinamarca en 2027.
Este mismo organismo avisa también sobre los desechos electrónicos: estos centros de datos producen piezas que a menudo contienen sustancias peligrosas, como el mercurio y el plomo. Y pone un ejemplo: fabricar una máquina de 2 kilos requiere 800 kilos de materias primas. Una investigación de la Universidad de Cambridge y del Instituto de Medio Ambiente Urbano de la Academia China de Ciencias, publicada en Nature Computational Science, indica que la generación de residuos procedentes de la tecnología pasará de las 2.600 toneladas de 2023 a 2,5 millones de toneladas en 2030: lo equivalente a tirar entre entre 2,100 y 13,300 millones de unidades de iPhone 15 Pro.
No todo son sombras
La IA no solo interviene en el medioambiente de manera negativa. Según Naciones Unidas la gran ventaja es que puede detectar patrones en los datos, como anomalías y similitudes, y utilizar el conocimiento histórico para predecir con precisión los resultados futuros, lo que significa poder monitorear el medio ambiente y ayudar a los gobiernos, las empresas y las personas a tomar decisiones más respetuosas con el planeta. La misma organización la utiliza para detectar cuándo las instalaciones de petróleo y gas liberan metano, un gas de efecto invernadero que impulsa el cambio climático.