Un estudio científico publicado este martes bajo supervisión de la UNESCO concluyó que el consumo energético de la IA podría reducirse un 90% utilizando modelos más pequeños y especializados, junto con consultas más breves.

En junio se reveló que cada consulta enviada a la aplicación «ChatGPT» consume un promedio de 0,34 vatios-hora de electricidad, ya que el chatbot recibe cerca de mil millones de consultas diarias.

Esto equivale a 310 gigavatios-hora anuales, similar al consumo eléctrico de tres millones de personas en Etiopía, según un informe de una agencia de la ONU presentado en el foro «IA para el Bien» en Ginebra.

IA generativa

Para reducir este creciente consumo energético debido al uso masivo de IA generativa, la UNESCO recomienda reducir el tamaño de los modelos mediante técnicas de compresión.

Consultas más cortas y limitar la extensión de las respuestas de los modelos de IA también pueden disminuir el consumo energético en un 50%, según el estudio.

Los investigadores señalaron que usar modelos más pequeños en lugar de modelos lingüísticos multifuncionales y extensos es otra estrategia efectiva.

Combinar ambos enfoques—modelos lingüísticos pequeños con consultas breves—puede reducir el consumo energético en un 90% manteniendo una «alta relevancia».

Gigantes tecnológicos

El estudio demostró que las consultas diarias a modelos lingüísticos multifuncionales (con respuestas promedio de 300 palabras) equivalen al consumo eléctrico de 38.000 hogares británicos.

En cambio, consultas similares de solo 150 palabras dirigidas a modelos especializados más pequeños consumen menos electricidad que 4.000 hogares.

El estudio aclaró que, aunque los modelos pequeños son más eficientes para tareas específicas, pueden ser menos efectivos para usos generales.

Conscientes de este desafío energético, las grandes tecnológicas ahora ofrecen versiones reducidas de sus modelos lingüísticos, con menos parámetros.

Por ejemplo, Google promociona «Gemma», Microsoft ofrece «Phi-3» y OpenAI presenta «GPT-4o mini».