El costo de la inteligencia artificial: ¿Cuánta energía se necesita para alimentar la tecnología del futuro?
El uso y aplicación de la inteligencia artificial tiene un coste medioambiental que, quizás, pocos conocen. Y todo apunta a que aumentará en los próximos años
El futuro en el que soñábamos con coches voladores y robots antropomorfos que nos hacían las tareas domésticas ha sido pronto reemplazado por una realidad mucho más prosaica y cotidiana. La inteligencia artificial en nuestras vidas, en pleno 2023, difícilmente se parece a los ejemplos que hemos visto en la ciencia ficción.
La IA se encarga cada día de mejorar, por ejemplo, los resultados de una búsqueda en internet; recomendarnos música, película y series que nos mantienen pegados y suscritos a la plataforma de turno; puede traducir frases en idiomas de una manera muy precisa; y desde hace poco, es capaz de mantener conversaciones de manera fluida, proporcionando ideas y soluciones creativas para millones de personas en todo el mundo.
Sin embargo, la IA también está impulsando el avance de la sociedad con aplicaciones cada vez más avanzadas, por ejemplo, en el sector de la automoción (algoritmos de aprendizaje profundo para reemplazar la conducción humana), la sanidad (robots que asisten a los cirujanos con precisión milimétrica), el sector industrial (la IA puede detectar anomalías en la cadena de producción de una fábrica para optimizar su rendimiento) y comercial (chatbots que sustituyen a las personas en el departamento de atención al cliente).
Cada mensaje, cada “prompt” generado y cada respuesta cuesta mucho dinero
Todas estas aplicaciones tienen, sin embargo, su cara oscura, un alto costo energético que puede aumentar con el tiempo a medida que la inteligencia artificial se vuelva más sofisticada. Y no es un problema de futuro: ya en 2019, Gary Dickerson, CEO de Applied Materials, una empresa proveedora de semiconductores (base tecnológica de la IA), anunciaba durante una conferencia en San Francisco, que si no se producía una importante reformulación en los materiales, fabricación y diseño de los chips, en 2025 la IA podría suponer una décima parte del consumo de electricidad a nivel mundial.
Para que la rueda de la IA siga en marcha, el cielo no puede despejarse: dependemos de la nube. Y la nube no es una entelequia abstracta. Almacenar fotos, vídeos, documentos en un espacio virtual tiene un coste: el de los centros de datos localizados en inmensas naves industriales salpicadas por millones de ordenadores (que albergan semiconductores) que no dejan de funcionar ni un solo momento para procesar millones de datos. Eso que llamamos ‘nube’ no deja de tener, como es obvio, una base muy terrenal. Y, como ya aprendimos en el colegio, el trabajo conlleva un gasto de energía.
Se estima que esta infraestructura genera, actualmente, hasta el 1,5 % del uso mundial de electricidad, según un informe elaborado por la Agencia Internacional de la Energía (IEA). Este porcentaje, sin embargo, se eleva aún más si tenemos en cuenta el consumo de energía que engloba la tecnología de la información: entre el 4 y el 6 % representa, según un estudio elaborado por el parlamento británico, a las Tecnologías de la Información y la Comunicación (TIC). La concentración de los centros de datos precisa en países como Alemania, Reino Unido o EE.UU. de una cantidad ingente de potencia: se estima que requieren más de 100 megavatios, suficiente para abastecer a 80.000 hogares en los EE.UU.
Hace bien poco, palabras como DALL-e o ChatGPT eran del todo desconocidas para el gran público. Ahora mismo, sin embargo, son la punta de lanza de lo que se conoce como ‘inteligencia artificial generativa’, un tipo de tecnología que, como su nombre indica, es capaz de ‘generar’ contenido nuevo y original (aunque esto es motivo de debate) en lugar de responder simplemente a una entrada de datos.
Un gasto cinco veces mayor que las búsquedas en Google
Actualmente, ChatGPT es uno de los modelos más destacados en el campo de la inteligencia artificial generativa, capaz de generar respuestas automáticas. Este modelo de chat que genera respuestas automáticas emitió durante su entrenamiento en la versión 3 nada menos que 550 toneladas de dióxido de carbono, una cantidad significativa que supera la emisión anual de CO₂ de algunas empresas y organizaciones.
Si en la década de los cincuenta EE.UU. y Rusia se enzarzaron en una dura ‘carrera espacial, ahora en 2023 otros dos gigantes económicos se enfrentan en una carrera por liderar el mercado de la inteligencia artificial: Google y Microsoft quieren liderar el mercado de la IA incorporando aplicaciones de inteligencia artificial como ChatGPT a sus buscadores. El objetivo de esto es que los usuarios puedan interactuar con los navegadores mediante el lenguaje natural, en vez de escribir palabras clave para obtener una lista de páginas web. Esto tiene un costo más elevado que la simple búsqueda en Google para encontrar el mejor restaurante posible: usar este servicio requiere una potencia que supera en cuatro o cinco veces la búsqueda tradicional. Por supuesto, esto implica un consumo de recursos naturales.
Por ejemplo, según un informe de Nature, Microsoft (cuya cabeza visible, no olvidemos, es su cofundador Bill Gates, un filántropo concienciado en la defensa del planeta) gastó, 3.600 millones de litros de agua para refrigerar sus centros de datos (su ‘nube’); Google, por su parte, hizo lo propio gastando 15.800 millones de litros. Con el actual clima de sequía global, estos datos son sin duda preocupantes.
Posibles soluciones a un gasto energético “inasumible”
Es vital que las grandes empresas sean lo más transparentes posibles y apliquen el uso de energías renovables en estos centros de datos masivos. Con la aparición de servicios de uso masivo como ChatGPT se requiere un mayor esfuerzo e inversión en capacidad computacional, acciones que repercuten en la huella de carbono.
Para limitar el consumo de datos en estos centros masivos se puede optar por el desarrollo de tecnologías de almacenamiento de energía de larga duración (LDES). Y es que los centros de datos necesitan energía las 24 horas del día, los siete días de la semana y todos sabemos que el viento y el sol son fuentes intermitentes. A día de hoy una tecnología LDES como el almacenamiento en baterías de litio sigue siendo muy costosa. Como alternativa se presenta la tecnología de batería de flujo de hierro: dichas baterías ofrecen almacenamiento de energía limpia de larga duración a la mitad de coste por MWh si la comparamos con la de iones de litio.
A medida que se aumenta la capacidad de procesamiento de datos y se amplían las aplicaciones de la inteligencia artificial, crece el impacto negativo en el medioambiente. Es necesario por ello que se adopten medidas para mejorar la eficiencia energética así como la transparencia empresarial en cuanto al uso de energía. La inversión en tecnologías de almacenamiento de larga duración, por ejemplo, así como una legislación que logre alcanzar la neutralidad de emisiones de carbono en 2050, pueden ser cruciales para que la sociedad acompañe al avance de una tecnología que ya es el presente de nuestras vidas.
CONTENIDOS RELACIONADOS
Vocento S.A. - 2023
- Aviso Legal
- Política de Cookies
- © 2023 Comercializadora multimedia S.A. y VOCENTO
- DISEÑO ALESSANDRO MARRA