(Français) L’optimisation de code par IA est-elle vraiment écologique ?

Sorry, this entry is only available in Français.

Une étude du projet CARECloud remet en question les bénéfices énergétiques des grands modèles de langage

Les grands modèles de langage (LLM) comme ChatGPT ou Copilot promettent d’optimiser automatiquement le code informatique pour le rendre plus rapide et moins gourmand en énergie. Mais leur propre consommation énergétique, souvent ignorée, pourrait annuler ces gains. Une équipe de chercheurs du projet CARECloud a analysé ce paradoxe lors de la 40ᵉ Conférence Internationale sur l’Ingénierie Logicielle Automatisée (ASE’25), qui se tiendra du 10 au 14 novembre 2025 à Séoul, en Corée du Sud.

Dans leur publication intitulée « When Faster Isn’t Greener: The Hidden Costs of LLM-Based Code Optimization », Tristan Coignion (doctorant à Inria), Clément Quinton (professeur à l’Université de Lille et chercheur à Inria) et Romain Rouvoy (professeur à l’Université de Lille et chercheur à Inria) ont évalué l’impact énergétique de l’optimisation de code par des LLM. Leur étude, basée sur 118 tâches issues du benchmark EvalPerf, révèle que les gains de performance ne compensent l’énergie dépensée par les LLM qu’après des centaines, voire des centaines de milliers d’exécutions.

Les chercheurs introduisent une métrique clé : le point de bascule énergétique (BEP), qui mesure le nombre d’exécutions nécessaires pour qu’un code optimisé devienne « rentable » sur le plan énergétique. Leurs résultats montrent aussi que l’optimisation peut produire des codes incorrects ou moins efficaces, et qu’il n’y a pas de lien systématique entre rapidité et économie d’énergie.

Conclusion : Pour que l’optimisation par IA soit vraiment durable, elle doit être réservée à des applications critiques et très fréquentes, tout en intégrant une analyse complète de leur cycle de vie énergétique.

FORMULAIRE D'ABONNEMENT

Inscrivez-vous pour recevoir chaque trimestre la Newsletter du PEPR Cloud.

En vous abonnant à la newsletter du PEPR Cloud, vous acceptez de recevoir des informations régulières sur nos projets, nos recherches, nos événements, et autres actualités liées au PEPR.

Vous pourrez vous désabonner à tout moment en utilisant le lien de désabonnement présent sur chaque newsletter.

Politique de confidentialité