• Blog
  • Emprender
  • ¿Cuál es el coste energético de la popularización de la Inteligencia Artificial?

¿Cuál es el coste energético de la popularización de la Inteligencia Artificial?

4min

Dependiendo de la fuente que se consulte, los centros de datos consumen entre el 1% y el 2% de la energía mundial a nivel global. Este dato puede multiplicarse, si hacemos caso a los estudios que ya contemplan ya la popularización de los servicios de Inteligencia Artificial (IA), como, por ejemplo, ChatGPT

Nadie tiene acceso a una bola de cristal para saber qué nos deparará el futuro, aunque eso no impide que se presenten estudios con frecuencia que alertan sobre el incremento de la demanda energética del sector TI. En las previsiones más alarmistas, incluso se habla de que este sector supondrá el 14% de las emisiones contaminantes en 2040 y de que que la demanda energética se multiplicará por quince en 2030. Es difícil saber qué va a pasar en realidad, pero sí que podemos apuntar ciertos argumentos que nos llevarían a conclusiones y cifras menos desmesuradas.

Una de las claves de estos estudios es la del coste de entrenamiento de modelos como ChatGPT. En efecto, entrenar desde cero uno de estos modelos tiene costes realmente altos desde un punto de vista económico, que se traducen también en un incremento energético. Por ejemplo según el informe ARK Invest Big Ideas 2023, los costes de entrenamiento de un gran modelo lingüístico similar en rendimiento a GPT-3 fueron de unos 4,6 millones de dólares en 2020. Lo que también aporta este informe es que, en apenas dos años, ese coste ha disminuido hasta los 450.000 dólares.

Índice

¿Por qué baja continuamente el coste energético del entrenamiento de la IA?

En el mundo de la tecnología, el coste energético va literalmente de la mano de la eficiencia de la computación. Cuanto más eficiente es una pieza hardware, la infraestructura global o el software (o los tres factores, por qué no), menos energía se consume para realizar la misma tarea. 

Es cierto que el coste de entrenar un modelo complejo desde cero es enorme. Podemos compararlo con el coste de aprender un idioma nuevo desde cero, que no es exactamente el mismo coste, ni mucho menos que perfeccionar el nivel que tenemos de ese mismo idioma cuando, desde el nivel básico, nos pasamos al intermedio y de este al avanzado.

Con los modelos de aprendizaje automático pasa algo muy similar. De hecho, el coste de entrenamiento de los modelos de Deep Learning se reduce 50 veces más rápido que la Ley de Moore y, en algunos casos, se ha reducido hasta niveles casi insignificantes. En el mencionado informe se facilita un ejemplo: para 2030, el coste de entrenamiento de un modelo del nivel de GPT-3 se reducirá a 30 dólares frente a los 450.000 dólares de 2022.

Y ¿cómo se entiende esta tendencia a la baja en el coste de entrenamiento de la IA?  Si nos fijamos en el hardware, cuanto más grandes sean los volúmenes de datos para procesar, y cuantos más cálculos sean necesarios, mayor será el coste del hardware especializado. Sin embargo, como siempre ha sucedido, a medida que la tecnología avanza y se populariza, los costes de producción se reducen. Hasta ahora, el coste del hardware especializado de gama alta para procesar grandes volúmenes de datos y cálculos (GPUs y TPUs) dificultaban la democratización de la IA a gran escala.

La llamada Ley de Wright predice que los costes del hardware de entrenamiento de IA deberían disminuir un 57% cada año. En cuanto al coste de entrenamiento del software de IA pueden reducirse hasta un 47% cada año gracias, principalmente, a una mayor eficiencia y capacidad de escala.

Otro factor que debemos tener en cuenta para entender cómo los costes se contienen es el concepto de Inteligencia Artificial basada en cloud, ya que se proporcionan los recursos informáticos bajo demanda y con una gran flexibilidad a la hora de aprovisionar. Con el modelo de pago por uso, los costes se pueden prever con relativa facilidad, y también es posible optar por servicios como AIaaS.

Fernando Fuentes

Productos relacionados: