Green IT

Les centrales nucléaires, une solution pour faire tourner l’IA ?

Par Thierry Derouet, publié le 25 septembre 2024

Alors que l’IA dévore de plus en plus de ressources énergétiques, les hyperscalers comme Microsoft et Oracle parient sur le nucléaire pour alimenter leurs centres de données.

Avec l’IA qui continue d’accélérer son appétit énergétique, les hyperscalers, comme Microsoft et Oracle, semblent envisager des solutions pour satisfaire cette demande croissante. Et quelle meilleure idée que de se tourner vers l’énergie nucléaire ? Parce que, soyons honnêtes, tant qu’on peut se réclamer de la « décarbonation », pourquoi pas ? Mais derrière ces intentions se cachent des choix techniques qui méritent d’être explorés.

Hyperscalers et surcharge énergétique

Les centres de données à l’échelle mondiale ont consommé en 2023 environ 350 térawattheures (TWh) d’électricité par an, soit environ 3 % de la consommation mondiale selon selon l’Agence internationale de l’énergie. Les géants du cloud, tels que Microsoft, Oracle, AWS et Google, représentent une part significative de cette consommation. Avec la montée en puissance des applications IA, cette consommation pourrait augmenter considérablement au cours de la prochaine décennie. Pour anticiper cette hausse, ces entreprises explorent des sources d’énergie fiables et stables, comme le nucléaire.

Microsoft et Oracle : une solution nucléaire « pragmatique » ?

Microsoft a exprimé un fort engagement envers la durabilité énergétique et s’est fixé pour objectif d’être carbone négatif d’ici 2030. Pour tenter d’y parvenir, la société a signé un contrat d’exclusivité pour relancer la tristement célèbre centrale nucléaire de Three Mile Island et acheter plus de 800 mégawatts de capacité électrique pour alimenter ses centres de données pendant 20 ans. Un projet qui affole bien des associations. Car Three Mile Island reste dans l’histoire du nucléaire comme l’un des plus graves accidents. En 1979, une série de défaillances matérielles et humaines avait entraîné la fusion partielle du coeur du réacteur n°2 et une fuite de radioactivité avec des impacts significatifs sur la santé publique et l’environnement. Le réacteur n°1 a repris ensuite du service jusqu’en 2019, le réacteur ayant lui été définitivement fermé après l’incident. On ne sait pas exactement les plans de Microsoft alors que le démantèlement avait commencé mais semblait à l’arrêt depuis quelques mois. L’idée – apparemment – serait de moderniser et redémarrer le réacteur n°1. Celui-ci peut générer 837 mégawatts d’énergie, suffisamment pour alimenter plus de 700 000 foyers, ce qui – forcément – donne une idée assez claire de l’énorme quantité d’énergie nécessaire pour faire tourner à plein régime les centres de données et les IA de Microsoft.
Selon le Financial Times, la centrale devrait être mise en service en 2028 et rester opérationnelle au moins jusqu’en 2054. L’emplacement des installations de Microsoft qui recevront la production n’a pas été précisé. Bobby Hollis, vice-président de l’énergie chez Microsoft, a résumé la situation en déclarant que cet accord « est une étape majeure dans les efforts de Microsoft pour décarboner le réseau ». Décarboner ? Oui, peut-être. Mais c’est avant tout pour faire tourner à plein régime les IA.

Et que dire de Larry Ellison chez Oracle ? Toujours un peu plus grand, un peu plus audacieux, il a annoncé que son entreprise construira un centre de données, un nouveau supercluster de 131 072 GPU BlackwelI, d’un gigawatt, alimenté par trois petits réacteurs nucléaires modulaires (SMR). Selon Ellison, « c’est là où les choses deviennent folles ». Et fou, c’est bien le mot. Mis à part quelques projets expérimentaux, comme le souligne The Register, aucun SMR n’est encore opérationnel, et les projets pilotes ont rencontré des difficultés.

AWS et ses ambitions : diversité énergétique ou illusion nucléaire ?

Amazon, via sa division AWS, s’est également engagé à atteindre la neutralité carbone, visant 100 % d’énergie renouvelable pour ses opérations d’ici 2025. L’entreprise investit massivement dans l’énergie éolienne et solaire tout en rachetant un campus pour y développer un centre de données à côté de la centrale nucléaire de Susquehanna en Pennsylvanie, s’assurant ainsi une capacité de 960 mégawatts. L’objectif ? S’assurer que les serveurs continuent à tourner, tout en explorant également les réacteurs nucléaires modulaires pour les intégrer à leurs futurs projets. Un ingénieur principal en nucléaire a même été embauché pour superviser ces projets.

Le nucléaire, un faux-semblant ?

Des experts, comme Maxime Efoui-Hess du Shift Project, tirent la sonnette d’alarme. Ils estiment que la dépendance accrue aux infrastructures énergétiques lourdes pourrait détourner des ressources d’autres secteurs clés pour la décarbonation, comme le transport ou l’industrie.

Alors, le nucléaire est-il une solution durable ou une simple réponse temporaire à la boulimie énergétique de l’IA ? À court terme, il pourrait offrir aux hyperscalers une manière de répondre à la demande croissante. Mais à long terme, la vraie question demeure : quand les modèles IA deviendront-ils enfin moins gourmands en énergie ? Est-ce vraiment une solution durable de continuer à augmenter les capacités énergétiques sans optimiser l’efficacité ?

En attendant, que vous soyez DSI ou architecte cloud, une chose est sûre : les géants de la tech cherchent activement des moyens pour satisfaire l’appétit énergétique de l’IA, et ce n’est que le début.


Combien consomme vraiment un prompt d’IA ?

C’est à vous donner le tournis. Et les chiffres qui circulent sont assez variables. L’infrastructure énergétique nécessaire pour alimenter nos centres de données est, nous la savons, massive. Selon l’ADEME (Agence de l’Environnement et de la Maîtrise de l’Energie), un data center de 10 000 m2 de surface présente une consommation équivalente à celle d’une ville de 50 000 habitants, comme Laval ou la Roche-sur-Yon, le refroidissement des serveurs absorbant presque autant d’énergie que leur fonctionnement.

Mais ce n’est là que la consommation d’un data center classique. Les modèles d’IA tournent sur des GPU Nvidia H100 ou H200, lesquels consomment entre 400 et 700 watts par carte. Chaque centre de données dédié à l’IA peut regrouper des milliers de ces unités. Et la montée en puissance des nouveaux data center semble sans limite (voir l’annonce d’Oracle).

Si un prompt d’IA peut sembler anodin pris isolément, son impact énergétique devient significatif lorsqu’on le multiplie par des milliards de requêtes quotidiennes. Par exemple, une requête Google consomme environ autant d’énergie qu’une ampoule de 60 watts allumée pendant 17 secondes, soit environ 0,3 wattheure. En revanche, une seule requête sur ChatGPT consommerait près de 2,9 wattheures, soit presque 10 fois plus qu’une recherche Google. Des calculs qui n’ont néanmoins pas été faits avec les derniers modèles optimisés “GPT-4o” mais de précédents modèles réputés bien plus consommateurs (GPT-4).

Toutefois, lorsqu’on entre dans les comparaisons énergétiques, les résultats peuvent devenir déroutants. Par exemple, certaines estimations suggèrent que faire 100 requêtes sur ChatGPT émettrait jusqu’à 100 fois moins de CO2 que de consommer 100 g de viande de bœuf. Mais ces calculs dépendent du modèle utilisé, et les détails méthodologiques derrière ces comparaisons sont rarement clairs ou expliqués.



À LIRE AUSSI :


À LIRE AUSSI :


À LIRE AUSSI :


Dans l'actualité

Verified by MonsterInsights