En una serie de dos partes, Noticias del MIT explora las implicaciones ambientales de la IA generativa. En este artículo, analizamos por qué esta tecnología requiere tantos recursos. Un segundo artículo investigará qué están haciendo los expertos para reducir la huella de carbono y otros impactos de genAI.
El entusiasmo que rodea a los posibles beneficios de IA generativaEs difícil ignorar los avances, desde la mejora de la productividad de los trabajadores hasta el avance de la investigación científica. Si bien el crecimiento explosivo de esta nueva tecnología ha permitido el rápido despliegue de modelos potentes en muchas industrias, las consecuencias ambientales de esta “fiebre del oro” generativa de la IA siguen siendo difíciles de precisar, y mucho menos mitigar.
La potencia computacional necesaria para entrenar modelos de IA generativa que a menudo tienen miles de millones de parámetros, como el GPT-4 de OpenAI, puede demandar una cantidad asombrosa de electricidad, lo que conduce a mayores emisiones de dióxido de carbono y presiones sobre la pink eléctrica.
Además, implementar estos modelos en aplicaciones del mundo actual, permitir que millones de personas utilicen IA generativa en su vida diaria y luego ajustar los modelos para mejorar su rendimiento, eat grandes cantidades de energía mucho después de que se haya desarrollado un modelo.
Más allá de las demandas de electricidad, se necesita una gran cantidad de agua para enfriar el {hardware} utilizado para entrenar, implementar y ajustar los modelos de IA generativa, lo que puede sobrecargar los suministros de agua municipales y alterar los ecosistemas locales. El creciente número de aplicaciones de IA generativa también ha estimulado la demanda de {hardware} informático de alto rendimiento, añadiendo impactos ambientales indirectos derivados de su fabricación y transporte.
“Cuando pensamos en el impacto ambiental de la IA generativa, no se trata solo de la electricidad que se eat cuando se conecta la computadora. Hay consecuencias mucho más amplias que llegan a nivel del sistema y persisten en función de las acciones que tomamos”, cube Elsa A. Olivetti, profesora del Departamento de Ciencia e Ingeniería de Materiales y líder de la Misión de Descarbonización del nuevo MIT Proyecto Climático.
Olivetti es autor principal de un artículo de 2024, “Las implicaciones climáticas y de sostenibilidad de la IA generativa”, escrito en coautoría por colegas del MIT en respuesta a una convocatoria de artículos de todo el Instituto que exploren el potencial transformador de la IA generativa, tanto en direcciones positivas como negativas para la sociedad.
Centros de datos exigentes
Las demandas de electricidad de los centros de datos son un issue importante que contribuye a los impactos ambientales de la IA generativa, ya que los centros de datos se utilizan para entrenar y ejecutar modelos de aprendizaje profundo detrás de herramientas populares como ChatGPT y DALL-E.
Un centro de datos es un edificio con temperatura controlada que alberga infraestructura informática, como servidores, unidades de almacenamiento de datos y equipos de pink. Por ejemplo, Amazon tiene más de 100 centros de datos en todo el mundocada uno de los cuales tiene alrededor de 50.000 servidores que la empresa utiliza para respaldar los servicios de computación en la nube.
Si bien los centros de datos existen desde la década de 1940 (el primero se construyó en la Universidad de Pensilvania en 1945 para respaldar la primera computadora digital de uso basicENIAC), el auge de la IA generativa ha aumentado drásticamente el ritmo de construcción de centros de datos.
“Lo que diferencia a la IA generativa es la densidad de potencia que requiere. Básicamente, se trata sólo de informática, pero un grupo de entrenamiento de IA generativa podría consumir siete u ocho veces más energía que una carga de trabajo informática típica”, afirma Noman Bashir, autor principal del artículo sobre impacto, que es becario de Computación e Impacto Climático en el MIT Local weather. and Sustainability Consortium (MCSC) y un postdoctorado en el Laboratorio de Ciencias de la Computación e Inteligencia Synthetic (CSAIL).
Los científicos han estimado que los requisitos de energía de los centros de datos en América del Norte aumentaron de 2.688 megavatios a finales de 2022 a 5.341 megavatios a finales de 2023, impulsados en parte por las demandas de la IA generativa. A nivel mundial, el consumo de electricidad de los centros de datos aumentó a 460 teravatios en 2022. Esto habría convertido a los centros de datos en el undécimo mayor consumidor de electricidad del mundo, entre las naciones de Arabia Saudita (371 teravatios) y Francia (463 teravatios), según el Organización para la Cooperación y el Desarrollo Económico.
Para 2026, se espera que el consumo de electricidad de los centros de datos se acerque a los 1.050 teravatios (lo que elevaría a los centros de datos al quinto lugar en la lista mundial, entre Japón y Rusia).
Si bien no todos los cálculos de los centros de datos implican IA generativa, la tecnología ha sido un importante impulsor del aumento de la demanda de energía.
“La demanda de nuevos centros de datos no se puede satisfacer de forma sostenible. El ritmo al que las empresas están construyendo nuevos centros de datos significa que la mayor parte de la electricidad necesaria para alimentarlos debe provenir de centrales eléctricas basadas en combustibles fósiles”, afirma Bashir.
Es difícil determinar la potencia necesaria para entrenar e implementar un modelo como el GPT-3 de OpenAI. En un artículo de investigación de 2021, científicos de Google y la Universidad de California en Berkeley estimaron que solo el proceso de capacitación consumió 1287 megavatios hora de electricidad (suficiente para alimentar alrededor de 120 hogares promedio en EE. UU. durante un año), generando alrededor de 552 toneladas de dióxido de carbono.
Si bien todos los modelos de aprendizaje automático deben entrenarse, un problema exclusivo de la IA generativa son las rápidas fluctuaciones en el uso de energía que ocurren en las diferentes fases del proceso de entrenamiento, explica Bashir.
Los operadores de redes eléctricas deben tener una forma de absorber esas fluctuaciones para proteger la pink y, por lo basic, emplean generadores a base de diesel para esa tarea.
Impactos crecientes de la inferencia
Una vez que se entrena un modelo de IA generativa, las demandas de energía no desaparecen.
Cada vez que se utiliza un modelo, tal vez cuando un individuo le pide a ChatGPT que resuma un correo electrónico, el {hardware} informático que realiza esas operaciones eat energía. Los investigadores han estimado que una consulta ChatGPT eat aproximadamente cinco veces más electricidad que una easy búsqueda en la net.
“Pero un usuario cotidiano no piensa demasiado en eso”, cube Bashir. “La facilidad de uso de las interfaces de IA generativa y la falta de información sobre los impactos ambientales de mis acciones significa que, como usuario, no tengo muchos incentivos para reducir mi uso de IA generativa”.
Con la IA tradicional, el uso de energía se divide de manera bastante equitativa entre el procesamiento de datos, el entrenamiento de modelos y la inferencia, que es el proceso de utilizar un modelo entrenado para hacer predicciones sobre nuevos datos. Sin embargo, Bashir espera que las demandas de electricidad de la inferencia generativa de IA eventualmente dominen, ya que estos modelos se están volviendo omnipresentes en muchas aplicaciones, y la electricidad necesaria para la inferencia aumentará a medida que las versiones futuras de los modelos se vuelvan más grandes y complejas.
Además, los modelos de IA generativa tienen una vida útil especialmente corta, impulsada por la creciente demanda de nuevas aplicaciones de IA. Las empresas lanzan nuevos modelos cada pocas semanas, por lo que la energía utilizada para entrenar versiones anteriores se desperdicia, añade Bashir. Los nuevos modelos suelen consumir más energía para entrenar, ya que suelen tener más parámetros que sus predecesores.
Si bien las demandas de electricidad de los centros de datos pueden estar recibiendo la mayor atención en la literatura de investigación, la cantidad de agua consumida por estas instalaciones también tiene impactos ambientales.
El agua helada se utiliza para enfriar un centro de datos absorbiendo el calor de los equipos informáticos. Se ha estimado que, por cada kilovatio hora de energía que eat un centro de datos, se necesitarían dos litros de agua para enfriarse, afirma Bashir.
“El hecho de que esto se llame ‘computación en la nube’ no significa que el {hardware} viva en la nube. Los centros de datos están presentes en nuestro mundo físico y, debido a su uso de agua, tienen implicaciones directas e indirectas para la biodiversidad”, afirma.
El {hardware} informático dentro de los centros de datos genera sus propios impactos ambientales menos directos.
Si bien es difícil estimar cuánta energía se necesita para fabricar una GPU, un tipo de procesador potente que puede manejar cargas de trabajo intensivas de IA generativa, sería más de lo que se necesita para producir una CPU más easy porque el proceso de fabricación es más complejo. La huella de carbono de una GPU se ve agravada por las emisiones relacionadas con el transporte de materiales y productos.
También existen implicaciones ambientales a la hora de obtener las materias primas utilizadas para fabricar las GPU, que pueden implicar procedimientos de minería sucios y el uso de productos químicos tóxicos para el procesamiento.
La firma de investigación de mercado TechInsights estima que los tres principales productores (NVIDIA, AMD e Intel) enviaron 3,85 millones de GPU a centros de datos en 2023, frente a aproximadamente 2,67 millones en 2022. Se espera que esa cifra haya aumentado en un porcentaje aún mayor en 2024. .
La industria está en un camino insostenible, pero hay formas de fomentar el desarrollo responsable de una IA generativa que respalde los objetivos medioambientales, afirma Bashir.
Él, Olivetti y sus colegas del MIT sostienen que esto requerirá una consideración integral de todos los costos ambientales y sociales de la IA generativa, así como una evaluación detallada del valor de sus beneficios percibidos.
“Necesitamos una forma más contextual de comprender de manera sistemática y exhaustiva las implicaciones de los nuevos desarrollos en este espacio. Debido a la velocidad a la que se han producido mejoras, no hemos tenido la oportunidad de ponernos al día con nuestras capacidades para medir y comprender las compensaciones”, cube Olivetti.