Vers des pénuries d'électriccité pour les IA : En 2027, les datacenters ne disposeront pas assez d'électricité pour alimenter toutes les demandes IA.

Green IT

Les pénuries d’électricité menacent 40 % des centres de données d’IA d’ici 2027, selon Gartner

Par Laurent Delattre, publié le 26 novembre 2024

Pourrait-on ne pas pouvoir produire suffisamment d’électricité pour alimenter toutes les IA dont nous avons besoin ? C’est ce que laisse craindre un nouveau rapport du Gartner pour qui le problème se posera dès 2027…

On le sait l’IA est très consommatrice d’énergie. Et pas uniquement, contrairement à une croyance répandue, pour ses apprentissages. Délivrer des inférences à des milliards d’humains exploitant des dizaines de milliards d’Agents IA au quotidien est un véritable défi auquel l’écosystème numérique va devoir apporter de multiples réponses.

Selon l’agence internationale de l’énergie, la consommation électrique combinée d’Amazon, Microsoft, Google et Meta avait plus que doublé entre 2017 et 2021, avant même ChatGPT et l’explosion de l’IA générative. Et l’agence estime que la consommation électrique mondiale annuelle des datacenters dépassera la barre symbolique des 1000 Terawatts/heure en 2026.

Pour répondre à ces besoins croissants, les hyperscalers ont d’ores et déjà mis en œuvre diverses stratégies pour sécuriser à moyens et longs termes des sources d’électricité fiables et autant que possible durables. Typiquement, les géants du Cloud signent des contrats à long terme avec des producteurs d’énergie renouvelable (comme l’accord de 10,5 GW entre Microsoft et Brookfield Asset Management), investissent dans de nouvelles infrastructures énergétiques à proximité de leurs datacenters (comme Amazon avec ses fermes solaires ou la construction de réacteurs nucléaires dans l’État de Washington), voire réouvrent d’anciennes centrales nucléaires (comme Microsoft qui a signé un accord avec Constellation Energy pour rouvrir la tristement célèbre centrale de Three Mile Island).

Pourtant, ces efforts pourraient bien ne pas être suffisants. Gartner prédit ainsi dans une nouvelle étude que, d’ici 2027, les pénuries d’électricité pourraient restreindre les opérations de 40% des centres de données dédiés à l’IA. Les analystes prédisent parallèlement une croissance exponentielle de la consommation énergétique des IA de 160% au cours des deux prochaines années !

Une demande énergétique insoutenable

Pour Bob Johnson, vice-président analyste chez Gartner, « la croissance explosive des nouveaux centres de données hyperscale pour mettre en œuvre la GenAI crée une demande insatiable en énergie qui dépassera la capacité des fournisseurs d’électricité à étendre leur offre assez rapidement ». Cette situation menace de perturber la disponibilité énergétique et de provoquer des pénuries, limitant ainsi le développement de nouveaux centres de données pour la GenAI et d’autres usages IA dès 2026.

Selon Gartner, l’énergie requise pour faire fonctionner les serveurs optimisés pour l’IA atteindra 500 térawattheures (TWh) par an en 2027, soit 2,6 fois le niveau enregistré en 2023. Cette augmentation est principalement due aux énormes quantités de données nécessaires pour entraîner et déployer les modèles de langage de grande taille (LLM) qui sous-tendent les applications de GenAI.

Impact économique et hausse des coûts

Et bien évidemment, l’inévitable conséquence de ces pénuries d’électricité imminentes sera une augmentation du prix de l’énergie. Outre qu’il faudra veiller à ce que cette inflation des prix ne se répercute pas sur la facture électrique du grand public (un effet de bord que l’on voit poindre à vitesse Grand V), cette inflation entraînera mathématiquement au moins une hausse des coûts opérationnels des LLM et autres modèles IA.

Et Gartner de recommander aux organisations d’anticiper dès aujourd’hui ces augmentations en négociant des contrats à long terme pour les services de centres de données à des tarifs énergétiques raisonnables. Il est également suggéré de considérer des approches alternatives moins énergivores lors du développement de nouveaux produits et services.

Enjeux environnementaux et durabilité compromise

Un autre effet de bord est d’ores et déjà visible. Selon Gartner, les objectifs de durabilité visant la neutralité carbone seront également compromis par cette explosion des usages de l’IA. Ainsi, après des années de baisse, Google a enregistré en 2023 une hausse de 13 % de ses émissions de CO₂, principalement attribuée à l’expansion de l’IA et à la consommation électrique de ses centres de données. Les émissions globales de Microsoft en 2023 ont augmenté de 29,1 % par rapport à 2022. Et la consommation d’eau du géant de Redmond a également augmenté, passant de 6,4 millions de mètres cubes en 2022 à 7,8 millions de mètres cubes en 2023, due aux besoins de refroidissement des centres de données Cloud et IA.

En outre, pour répondre à la demande croissante, Gartner note que certains fournisseurs d’énergie ont déjà commencé à prolonger la durée de vie de centrales à combustibles fossiles initialement prévues pour être mises hors service. « La réalité est que l’augmentation de l’utilisation des centres de données entraînera une hausse des émissions de CO₂ à court terme » explique Bob Johnson. « Cela compliquera la tâche des opérateurs de centres de données et de leurs clients pour atteindre des objectifs de durabilité ambitieux. »

Des solutions tous azimuts… souvent encore à inventer

Les sources d’énergie renouvelable, comme l’éolien et le solaire, ne peuvent pas, à elles seules, assurer une alimentation continue 24/7 requise par les centres de données sans solutions de stockage ou d’approvisionnement alternatif. Des technologies émergentes, telles que les batteries sodium-ion pour un meilleur stockage ou les petits réacteurs nucléaires pour une énergie propre, pourraient à long terme contribuer à atteindre les objectifs de durabilité.

Autant pour descendre les coûts opérationnels de l’IA que la consommation énergétique de leurs serveurs, les hyperscalers développent leurs propres accélérateurs IA (Google TPU, Amazon Trainium et Inferentia, Microsoft Maïa) optimisés pour leurs besoins et bien moins consommateurs en électricité que les gourmands GPU.

Les solutions sont aussi du côté des algorithmes. L’année 2024 a été marquée par l’arrivée de petits SLM bien moins consommateurs d’électricité que les grands modèles et néanmoins tout aussi pertinents d’autant qu’ils sont plus aisément « personnalisables » aux données et besoins des organisations. Et bien des ingénieurs travaillent à inventer des algorithmes IA plus efficients et moins consommateurs que les actuels algorithmes dérivés de GPT par exemple.

Reste que ces efforts et ces innovations vont devoir se rapidement se multiplier à grande échelle pour éviter que l’IA ne finisse par pomper toute notre production énergétique et ruine tous les efforts des organisations pour un numérique responsable. Dès lors, Gartner encourage les organisations à réévaluer dès aujourd’hui leurs objectifs de durabilité en matière d’émissions de CO₂, en tenant compte des besoins énergétiques croissants des centres de données. L’analyste invite les organisations à focaliser leurs efforts d’une Gen AI « efficiente » en renforçant leurs efforts d’optimisation des ressources computationnelles (afin de créer des architectures plus efficientes) et en explorant des alternatives comme le edge computing et l’utilisation de modèles de langage plus petits.


À LIRE AUSSI :


À LIRE AUSSI :


À LIRE AUSSI :


À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights