Une étude scientifique publiée mardi sous la supervision de l’UNESCO conclut que la consommation énergétique de l’IA pourrait être réduite de 90% en utilisant des modèles plus petits et spécialisés, ainsi que des requêtes plus courtes.

En juin, il a été révélé que chaque requête envoyée à l’application « ChatGPT » consomme en moyenne 0,34 watt-heure d’électricité, le chatbot recevant près d’un milliard de requêtes quotidiennes.

Cela équivaut à 310 gigawatt-heures par an, soit la consommation électrique annuelle de trois millions d’Éthiopiens, selon un rapport d’une agence de l’ONU présenté au forum « IA pour le bien » à Genève.

IA générative

Pour réduire cette consommation croissante avec l’usage massif de l’IA générative, l’UNESCO recommande de réduire la taille des modèles via des techniques de compression.

Des requêtes plus courtes et des réponses limitées des modèles d’IA peuvent aussi diminuer la consommation de 50%, selon l’étude.

Les chercheurs soulignent que l’utilisation de modèles réduits plutôt que de grands modèles polyvalents est également conseillée.

Combiner ces deux approches — petits modèles linguistiques et requêtes brèves — permet de réduire la consommation de 90% tout en conservant une « pertinence élevée ».

Géants technologiques

L’étude montre que les requêtes quotidiennes demandant des explications aux grands modèles polyvalents (moyenne de 300 mots) équivalent à la consommation électrique de 38 000 foyers britanniques.

En revanche, des requêtes similaires de 150 mots adressées à des modèles spécialisés plus petits consomment moins que 4 000 foyers.

L’étude note que si les petits modèles sont plus efficaces pour des tâches spécifiques, ils peuvent être moins performants pour un usage général.

Conscients de cet enjeu énergétique, les géants technologiques proposent désormais des versions allégées de leurs grands modèles linguistiques.

Par exemple, Google commercialise « Gemma », Microsoft propose « Phi-3 », et OpenAI offre « GPT-4o mini ».