Las imágenes generadas por Chat GPT, viralizadas en la última semana, representan un consumo energético por sobrecalentamiento de sus servidores. Una belleza digital que, detrás de escena, conlleva un impacto ambiental preocupante.
Por Cynthia Carmen y Sebastián Muñiz
Las redes sociales se inundaron de corrientes visuales que vertían por cada rincón del internet imágenes producidas por inteligencia artificial: estilo Studio Ghibli, los Simpson y más. Si fuiste uno más de los que creó tan solo una imagen, hay algo que quizás no sabes: la IA necesita, en promedio, medio litro de agua para imaginar por ti. Cada fantasía tiene un costo.
Mientras estas imágenes generadas por inteligencia artificial se multiplicaban, las reacciones aumentaban. El desconocimiento total sobre el valor real de estas tecnologías desbordó foros y publicaciones, alimentando la discusión. ¿Quién debe asumir la responsabilidad por este consumo invisible? ¿Recae en el usuario o en las empresas que lo promueven y mantienen su modelo de negocio?
Lo que ocurre detrás del clic
Para muchos usuarios, la llegada de las IAs fue como una revelación mágica: una herramienta diaria que parecía más un truco de magia que una tecnología compleja. Una plataforma que navegaba entre océanos de datos, respondiendo con asombrosa rapidez y precisión a cada pregunta. Para algunos, se convirtió en un asistente que no solo recordaba conversaciones pasadas, sino que mejoraba su eficiencia con cada interacción. Para otros, incluso llegó a ser un confidente silencioso, siempre dispuesto a escuchar. Pero detrás de este encanto, ¿cómo funcionan estas tecnologías?
Uno de los gastos más reconocidos por el conocimiento popular es el consumo de energía, un factor que continuamente se ha identificado como problemático. Sin embargo, el uso de agua ha pasado más desapercibido. Primero, es importante entender que las inteligencias artificiales (IA) no simplemente responden en el momento en que formulamos una pregunta. Antes de ello, tienen que pasar por un proceso de entrenamiento para llenar sus bases de datos y ser capaces de responder con precisión.
Imaginemos la creación de una inteligencia artificial especializada exclusivamente en todo lo relacionado con los gatos. Desde imágenes y videos hasta información técnica sobre su comportamiento y anatomía, esta IA necesitaría pasar por una rigurosa preparación. Si se quiere manejar grandes volúmenes de datos, se requieren servidores de alta potencia. Estos, para evitar sobrecalentarse, necesitan ser refrigerados constantemente, y gran parte de esa refrigeración se logra mediante el uso de agua.
Por ejemplo, en el caso de una IA moderada, el proceso de entrenamiento inicial podría generar un gasto de entre 500 mil y 1 millón de litros de agua, solo en la fase previa a su puesta en marcha. ¿Cuántos litros de agua gasta diariamente IAs reales? Durante el 2021, solo los centros de datos de Google en Estados Unidos generaron un gasto de 12.7 mil millones de litros de agua dulce en 2021, según informó Bourns College of Engineering.
Además, el impacto que tiene el uso de la IA no se limita al recurso hídrico. Sus servidores se conocen como Data Centers, ya que se compone de varias computadoras de una potencia significativa para operar y así darte las respuestas a tus prompts. Si se compara a Google, Chat GPT gasta más electricidad. El contraste es de 2.9 vatios por hora para el modelo de Open AI, que es 10 veces mayor al consumo del buscador, siendo de 0,03 vatios por hora.
Esto se debe por el adiestramiento de las interfaces con la necesidad de una fuente energética para mantener el proceso de aprendizaje que, a su vez, implica que la demanda energética mundial incremente. De hecho, las emisiones de carbono reflejan el problema. Google en su Environmental Sustainability Report de 2024 declaró que los GEI (gases de efecto invernadero) tuvieron un incremento de un 13% por el mayor consumo energético. En el caso de la IA, entrenar al modelo GPT-3 emitió 552 toneladas de CO2.
¿Cómo se traduce en un impacto al medio ambiente? Básicamente, la infraestructura del servidor genera CO2 por dos fuentes principales: evaporar el agua para mantener el sistema y consumir energía para sostener el funcionamiento del equipo.
El camino a la sostenibilidad
Entonces el problema es claro, pero, ¿qué hacen las empresas al respecto? Algunas soluciones van desde los sistemas de enfriamiento hasta recurrir a la misma IA. Por el lado de la infraestructura, una opción paliativa es el entrenar a los modelos a ciertas horas del día.
Esto se logra al utilizar paneles solares debido a que las torres de enfriamiento aprovechan el sol para almacenar energía. Durante la noche, cuando la temperatura es menor, estas realizan sus operaciones para que el gasto energético no consume tanta agua al no requerir tanta electricidad como si la necesitan en el día lógicamente. Sin embargo, no es una solución, simplemente reduce los efectos adversos.
Acerca de esto, Melanie Hammond, docente de comunicación y desarrollo, explica cómo se encuentra el proceso de la transición de las empresas en busca de hacer más sostenible sus inteligencias artificiales. “Existen diferentes sistemas de enfriamiento y en los casos en los que se utiliza agua, esta es necesaria para refrigerar los motores, lo que implica un consumo considerable. Además, no solo se requiere durante la operación de la IA, sino también en su fase de prueba y al momento de cargarle los datos”, comenta.
Una capacitación de aproximadamente dos semanas para el programa de IA GPT-3 en los centros de datos de vanguardia de Microsoft en EE. UU. consumió alrededor de 700 mil litros de agua dulce, equivalente a la cantidad utilizada en la fabricación de unos 370 automóviles BMW o 320 vehículos eléctricos Tesla.
Por ello, en busca de disminuir los costos ambientales, las empresas han diversificado las ubicaciones de sus nuevos servidores. Estos se ven afectados por el clima del lugar en el que se encuentran: a mayor temperatura, mayor es la demanda de recursos ambientales. Cada vez es más usual que las industrias coloquen sus centros en zonas altamente frías o incluso sumergidas.
Percy Diez, Coordinador del Observatorio Tecnológico de la Universidad de Lima, explica sobre la diferenciación entre servidores convencionales y las necesidades que demanda un servidor de IA. “Una operación simple puede requerir una sola instrucción, pero comprender texto o ejecutar un prompt implica miles de instrucciones, procesadores y servidores trabajando al mismo tiempo, lo cual es más exigente que otro tipo de tareas computacionales básicas”, detalla.
Una de las empresas que se manifestó acerca de sus cambios en busca de reducir el impacto de su negocio fue Microsoft. La solución apuntaría a ser un circuito cerrado que recircula el agua para así no tener la necesidad de reponer el líquido vital. Sin embargo, esta medida apunta a ser aplicada únicamente en los nuevos centros de datos a partir del 2027.
Lo desfavorable de esta medida es la tardanza en su implementación y su exclusividad para los nuevos centros de datos. Aún se desconoce cómo la IA afectará al medioambiente hasta ese año, y no está claro si será suficiente para frenar los impactos a tiempo. La conversación de las inteligencias artificiales aún se sitúa en su gran capacidad para resolver eficazmente desde tareas sencillas a labores con mayor complejidad. “Creo que la conversación ahora está más centrada en el potencial de lo que puede hacer, más que en los impactos que genera. Luego, ya se verá cómo se optimiza para que afecte menos. No parece ser una conversación prioritaria”, resalta Hammond.
A su vez, Diez concuerda en que nos encontramos en una fase de exploración sobre la capacidad de la inteligencia artificial; sin embargo, enfatiza que eso no significa que las empresas deban eludir su responsabilidad de ser transparentes sobre las demandas ambientales que exigen sus creaciones tecnológicas. “Estamos asombrados por las herramientas que nos ofrecen, pero las empresas deben ser transparentes sobre el manejo de recursos como la electricidad y el agua. Aunque algunas ya implementan programas de reducción de sus emisiones, la IA ha generado un silencio sobre cómo están manejando su impacto ambiental”, señala el coordinador.
¿Quién se echa al agua?
Las inteligencias artificiales han alcanzado a todo tipo de personas, desde quienes las implementan en sus empresas para facilitar sus labores como aquellos que diariamente le piden sencillas tareas para hacer la compra en el supermercado. No obstante, el dilema de la sostenibilidad y el uso del agua no solo involucra a quienes desarrollan la tecnología, sino también a quienes la consumen. ¿Es más responsable la empresa por sus prácticas o el usuario por su demanda?
“El debate sobre quién asume la responsabilidad de los impactos generados por la tecnología y el consumo es complicado. Aunque las empresas tienen una responsabilidad en su estrategia de sostenibilidad, el consumidor también debe informarse sobre las ventajas e impactos de lo que utiliza”, menciona Hammond.
Es distinto hablar sobre procedimientos elaborados en la que demanda de manera obligatoria la ayuda de la IA y como individuales poder prescindir de ella y resolver nuestra solicitud de otra manera. “Una búsqueda en Google también requiere recursos energéticos, y al principio intentábamos hacer búsquedas solo cuando eran necesarias. Sobre el uso diario de la IA, ¿hemos perdido toda habilidad de hacer algo nosotros, que necesitamos realmente recurrir a esto?”, destaca la docente.
El uso de la inteligencia artificial plantea un desafío ético y ambiental que involucra tanto a las empresas como a los consumidores. Si bien las primeras tienen la responsabilidad de integrar prácticas sostenibles, los usuarios deben ser conscientes de los impactos de sus demandas tecnológicas y tomar decisiones informadas. La verdadera pregunta es si hemos llegado al punto en el que ya no podemos vivir sin la IA, sacrificando nuestra capacidad de hacer las cosas por nosotros mismos, mientras seguimos alimentando un sistema que consume más recursos y nos aleja de la sostenibilidad.