Green IT
Pour des projets IA intégrant nativement les enjeux environnementaux
Par La rédaction, publié le 16 octobre 2024
Intégrer des considérations environnementales lors de la mise en oeuvre de l’intelligence artificielle va devenir un enjeu important pour les entreprises et les éditeurs de logiciels. Ce n’est en effet plus discutable : les infrastructures nécessaires aux grands projets IA ont un impact environnemental important.
Par Grégory Levraut Chef de projet et architecte solution, Cosmo Consult
L’agence internationale de l’énergie (IEA) a lancé un avertissement dans son dernier rapport : elle prévoit une augmentation de plus de 30 % de la demande énergétique liée à l’intelligence artificielle et aux cryptomonnaies d’ici 2026. La construction et l’exploitation de centres de données pour supporter l’IA pèsent également sur l’environnement : utilisation d’eau et de fluides pour refroidir les systèmes, artificialisation des sols pour construire des datacenters, perturbation des écosystèmes locaux…
Il est cependant possible de diminuer cet impact. Les chiffres le démontrent. Prenons l’exemple des datacenters : sur dix années, entre 2008 et 2018, leur capacité a progressé de 550 % selon l’étude Recalibrating global data center energy-use estimates de la Northwestern University, tandis que leur consommation électrique n’a augmenté que de 6 %. Ces optimisations ne suffisent pas à éliminer totalement leurs impacts sur l’environnement. Mais cela démontre que des stratégies pour les limiter fonctionnent.
Pour cela et avant toute chose, rappelons que l’IA, comme toute technologie, ne doit pas être déployée à la légère. Elle doit être pensée et réfléchie dans un projet global, sur le long terme avec des objectifs clairs et chiffrés. Cela facilite le monitoring des projets, indispensable dès la conception des systèmes. À l’échelle macro, il faut analyser le cycle de vie des projets et des technos IA utilisées pour vérifier en temps réel leur intérêt et leur utilisation. À un niveau plus détaillé, suivre l’utilisation des ressources techniques et compresser certains modèles permet d’optimiser les performances environnementales.
Une fois ce cadre posé, les axes stratégiques sont nombreux. Il faut d’abord penser des architectures « vertes », tout du moins économes en énergie. L’adoption de ces architectures scalables, adaptables à l’instant t, et l’utilisation d’infrastructures partagées minimisent les dépenses énergétiques et peuvent réduire l’empreinte carbone. Quant à l’edge computing, en déplaçant le traitement des données au plus près des utilisateurs, il diminue les besoins en transferts de données massifs.
L’optimisation des requêtes (prompt engineering) et la responsabilisation / formation des utilisateurs permettent aussi d’utiliser l’IA de manière plus efficace et écologique. Il s’agit de définir clairement les objectifs et de structurer les prompts pour baisser la consommation inutile de ressources. Il serait aussi intéressant de proposer des indicateurs d’impact à chaque sollicitation de l’IA générative.
Sur un plan plus technique, les algorithmes d’IA, surtout ceux utilisés pour le deep learning, peuvent être gourmands en énergie. Mais il est possible de simplifier les modèles en supprimant les parties inutiles (pruning) et en réduisant la précision des calculs (quantification) : cela peut considérablement diminuer la consommation d’énergie sans affecter la performance. Enfin, l’utilisation
de modèles de langage (LLM) locaux va dans le même sens, en éliminant les 70 % de la charge réseau internes au datacenter. Attention toutefois à ne pas déplacer cette charge vers les terminaux des utilisateurs. Cela impose de tester ces architectures via des POC (Proof of Concept) avant de les déployer à grande échelle.
Rappelons encore qu’un recours intelligent au scaling, avec des services cloud qui permettent une mise à l’échelle automatique en fonction de la demande, évite le gaspillage de ressources ; que la virtualisation et la conteneurisation permettent de maximiser l’utilisation de ces ressources disponibles en répartissant les charges applicatives au plus juste sur les machines physiques, en aidant à réduire le nombre de serveurs nécessaires ; qu’il est également possible de développer des algorithmes d’optimisation de la demande énergétique, à la fois pour de meilleures prévisions et une meilleure gestion, ce qui aide à anticiper les périodes de forte demande et à ajuster les ressources en conséquence.
Enfin, on n’oubliera pas de challenger les hébergeurs avec des questions orientées sur la consommation énergétique et sur les sources d’énergies utilisées (renouvelables ou non, localisation…), ou en consultant le PUE (Power Usage Effectiveness) des datacenters, qui mesure leur performance sur cet axe.
L’IA doit donc être mise en œuvre de manière réfléchie, avec des objectifs clairs et des plans d’action détaillés. Les stratégies évoquées ici offrent des pistes concrètes pour une IA plus durable. En repensant leur approche, les entreprises peuvent non seulement réduire leur empreinte carbone, mais aussi ouvrir la voie à une technologie respectueuse de l’environnement. Après tout, même les algorithmes aiment les arbres !
À LIRE AUSSI :