Cloud
AWS Re:Invent 2024 : le cloud Amazon trouve enfin son second souffle… plus green !
Par Laurent Delattre, publié le 06 décembre 2024
Au-delà de la multitude des annonces IA, AWS re:Invent 2024 a aussi cherché à défendre un visage du cloud qui ne se détourne pas des contraintes écologiques et énergétiques et qui continue d’évoluer à grande vitesse pour résoudre la diversité des défis qui attendent les entreprises dans les mois et années à venir. Voici ce que les DSI doivent retenir des annonces « non IA » de Re:Invent 2024…
Chaque année, AWS re:Invent s’impose comme l’un des rendez-vous majeurs du monde du Cloud, un événement où se croisent toutes les tendances clés et les annonces technologiques AWS les plus attendues.
Sans surprise, l’édition 2024 a largement mis l’IA à l’honneur et démontré qu’AWS avait enfin réussi à se débarrasser de son image de suiveur pour emprunter ses propres voies d’innovation. Nous avons ainsi largement évoqué le tsunami d’annonces IA qui s’est abattu sur les participants de ce Re :Invent 2024 dans notre compte rendu dédié à l’IA : AWS Re:Invent 2024 : Amazon fait feu de tout bois sur l’IA.
Il est temps, à présent, de se concentrer sur un autre tournant stratégique opéré par Amazon : celui de la durabilité, de l’efficacité énergétique et de la transformation de ses infrastructures. Des engagements en matière d’énergies renouvelables aux mesures concrètes visant la réduction de l’empreinte carbone de ses datacenters, en passant par l’optimisation des coûts induits par la vague GenAI, AWS se réinvente et progressivement réalise une refonte complète de son architecture Cloud. Une refonte qui se traduit aussi par l’apparition de nouvelles instances pour des besoins nouveaux, de nouvelles solutions de gestion de données serverless, de nouveaux services PaaS et de quelques surprises inattendues que nous vous invitons immédiatement à découvrir…
Vers des infrastructures plus Green
L’année 2024 a été marquée par une pléthore d’études sur la consommation énergétique des datacenters et sur l’impact des investissements IA non seulement sur la planète mais aussi sur les objectifs de réduction des émissions de CO2 que les hyperscalers s’étaient fixés avant le déferlement de la GenAI.
Sauf qu’il ne faut jamais perdre de vue que les surconsommations actuelles de l’IA sont aussi financièrement intenables dans la durée pour les hyperscalers. D’autant que la guerre des prix de l’IA et des modèles GenAI a déjà débuté. Pour les hyperscalers, l’urgence est à des IA et des datacenters plus efficients. Au point qu’AWS y a dédié sa première journée de conférence.
Le cloud d’Amazon a mis en avant une stratégie globale de refonte de ses datacenters, conjuguant avancées techniques, efficacité énergétique et réduction drastique de l’empreinte carbone. Cette approche, qui va bien au-delà d’une simple évolution technologique, s’inscrit dans une logique de durabilité, d’anticipation des besoins croissants en IA et de stricte maîtrise des impacts environnementaux.
100% d’énergie renouvelable
Ainsi, AWS a frappé fort en annonçant avoir atteint, avec sept ans d’avance sur son planning « 2030 », son objectif d’alimenter ses opérations Cloud avec 100% à partir d’énergies renouvelables.
Ce résultat n’est pas qu’un jalon symbolique : il confirme la capacité du géant du cloud à piloter une transition énergétique complexe, à diversifier ses sources d’approvisionnement à l’échelon mondial et à intégrer des mesures structurantes (comme la simplification des circuits électriques) afin d’optimiser le rendement global de ses infrastructures.
Un PUE moyen de 1,15
AWS est le plus ancien hyperscaler et dès lors dispose de datacenters que l’on pourrait qualifier d’ancestraux. Au point que le fournisseur de service Cloud n’avait jamais officiellement publié aucun PUE global alors que ses concurrents ne se gênaient pas pour faire valoir leur « modernisme » en la matière. Mais AWS s’est montré plus proactif qu’attendu à ce sujet et a donc pour la première fois évoqué publiquement le sujet.
Le PUE (Power Usage Effectiveness), indicateur clé de l’efficacité énergétique d’un datacenter et dont la valeur théorique parfaite est « 1 », permet de mesurer la proportion d’énergie réellement utilisée par les équipements informatiques par rapport à l’énergie totale consommée. AWS révèle désormais un PUE moyen global autour de 1,15, bien meilleur que les estimations des spécialistes.
Ce score témoigne des efforts faits par l’hyperviseur dans la modernisation de ses datacenters existants autant que dans les progrès de ses nouveaux datacenters. Il témoigne d’un niveau de maturité élevé dans la conception de l’infrastructure qui comprend notamment l’utilisation d’une IA propriétaire pour optimiser le positionnement des racks. Une IA qui lui a permis d’améliorer de 12% l’efficience de ses datacenters. Un score qui est aussi le résultat d’un important travail d’intégration de systèmes mécaniques et électriques moins énergivores et plus résilients (réduction des points de défaillance, meilleure disponibilité).
Un PUE record de 1,04, qui dit mieux ?
Certaines régions cloud très récentes culminent même à un PUE de 1,04, frôlant la perfection. Ce résultat, particulièrement rare dans l’industrie, doit beaucoup à l’adoption d’un refroidissement liquide de pointe, notamment sur les serveurs dédiés à l’IA (à base de processeurs Trainium2 ou GPU NVIDIA), à une répartition optimisée des charges et à la simplification des infrastructures (moins de transformateurs, distribution électrique plus directe, réduction du nombre de ventilateurs grâce à des différences de pression naturelles). Cet équilibre millimétré entre innovation et rationalisation est une belle illustration de la volonté d’AWS en particulier mais de tous les hyperscalers en général de concilier performance, fiabilité et sobriété énergétique. Mais il ne s’agit absolument pas ici d’altruisme environnemental. Il s’agit bien de répondre à la pression financière des coûts de l’IA, au manque de production énergétique et à la pression des entreprises et du public pour un numérique plus reponsable.
Un partenariat avec Orbital pour retirer le CO₂ des datacenters
Au-delà de l’optimisation purement énergétique, AWS anticipe déjà les défis futurs avec Orbital, start-up spécialisée dans la conception de matériaux avancés via l’IA. En s’appuyant sur les travaux d’Orbital, AWS cherche à intégrer directement dans la chaîne de refroidissement des technologies de capture du CO₂. L’objectif n’est plus seulement de limiter les émissions, mais d’agir activement sur leur réduction dans les environnements critiques. Cette approche s’inscrit dans une démarche holistique : non seulement la construction des datacenters se fait avec des matériaux à faible empreinte carbone (jusqu’à 35% de réduction pour le béton), mais la phase d’exploitation se dote d’outils ciblant l’eau, le refroidissement, l’électricité, et désormais la neutralisation des gaz à effet de serre.
Plus concrètement, AWS parie donc sur la chimie et l’ingénierie des matériaux, aidée par l’IA, pour développer des solutions inédites de décarbonation intégrée. Le partenariat avec Orbital est en ce sens stratégique : il ouvre la voie à des datacenters capables d’évoluer avec les nouveaux enjeux de l’IA, tout en atténuant activement leur impact environnemental. Ne freinons pas les bonnes intentions, mais il reste à vérifier que tout ceci n’est pas que du vent et aura un impact réel. L’avenir nous le dira vite.
De nouvelles instances musclées pour des besoins intenses
Toute conférence AWS Re:Invent s’accompagne de nouvelles instances de calcul EC2. Et l’édition 2024 ne fait pas exception. Les nouvelles instances annoncées profitent des améliorations apportées par AWS au design de ses machines avec une quasi-généralisation du Liquid Cooling.
Des instances EC2 P5en pour l’IA
Les instances EC2 P5en sont conçues pour des applications de machine learning (ML) et de calcul haute performance (HPC). Elles sont équipées de GPU NVIDIA H200 Tensor Core et de processeurs Intel Xeon Scalable de 4ème génération. Ces instances offrent une bande passante mémoire 50 % plus élevée et jusqu’à quatre fois plus de débit entre le CPU et le GPU grâce à PCIe Gen5. Elles s’appuient sur la troisième génération d’Elastic Fabric Adapter (EFAv3) en appui sur Nitro v5 afin d’offrir une bande passante réseau de 3200 Gbps et une latence améliorée de 35%. Les instances P5en proposent jusqu’à 192 vCPU, 2 To de mémoire et 8 GPU H200.
Des instances EC2 18g en Graviton4
Les instances EC2 18g sont optimisées pour les charges de travail intensives en stockage nécessitant une grande quantité de mémoire et de puissance de calcul. Elles sont principalement destinées aux bases de données en mémoire, aux analyses en temps réel et aux applications data nécessitant une faible latence.
Elles sont animées par les processeurs maison « AWS Graviton4 » et utilisent des SSD AWS Nitro de troisième génération combinés à un stockage NVMe. AWS promet des gains de 65 % des performances de stockage en temps réel par téraoctet et une réduction de 50 % de la latence d’E/S du stockage par rapport à la génération 14g précédente.
Elles procurent jusqu’à 96 vCPU, 768 GiB de RAM et 22,5 To de stockage embarqué.
Des instance EC2 17ie pleines de muscles
Les instances EC2 17ie sont conçues pour des applications nécessitant une haute performance de calcul et une grande capacité de stockage comme le traitement de données massives, les simulations scientifiques et les analyses financières.
Basées sur des Intel Xeon Scalable de 5ème génération, Elles offrent jusqu’à 192 vCPU, 1,5 To de RAM, une bande passante EBS de 60 Gbps et une bande passante réseau de 100 Gbps.
Selon AWS, les isntances I7ie offrent la plus haute densité de stockage disponible dans le cloud actuellement.
Un peu de cloud hybride, de gouvernance et d’observabilité
Du côté des containers, AWS avaient deux annonces majeures présentées comme « les deux plus importantes innovations jamais implémentées dans EKS ».
Du cloud hybride avec EKS Hybrid Nodes
Chez AWS, les thèmes « hybrides » ne tiennent jamais une grande place. Après tout, AWS est le héros du cloud public depuis ses origines. Mais les besoins hybrides sont bien réels et l’hyperscaler ne les néglige pas.
Il annonce ainsi une intéressante approche de l’exploitation des containers en mode hybride. Les EKS Hybrid Nodes permettent d’intégrer de manière native des infrastructures sur site (on-prem) et en périphérie (edge computing) aux clusters Amazon EKS. Dit autrement, cette nouveauté permet aux entreprises d’attacher leur propre infrastructure sous forme de nœud EKS. Cette fonctionnalité offre une gestion du plan de contrôle Kubernetes par AWS, ce qui améliore l’efficacité, l’évolutivité et la disponibilité des applications déployées sur site et en périphérie. En utilisant EKS Hybrid Nodes, les entreprises peuvent bénéficier de la flexibilité du cloud tout en exploitant pleinement leurs infrastructures locales. Et, oui, EKS Hybrid Nodes est bien une alternative plus simple, plus souple et plus flexible-extensible que les solutions AWS Outpost, en tout cas pour les containers.
EKS Auto Mode, Kubernetes en mode autonome
Le problème avec Kubernetes, c’est l’automatisation. Et AWS a une réponse qui met à la poubelle ses précédents efforts open source en la matière comme « Karpenter ». Ce dernier est en effet rendu obsolète par l’introduction d’ « EKS Auto Mode » !
EKS Auto Mode automatise entièrement la gestion des instances EC2, du stockage et du réseau pour les clusters EKS. Il sélectionne automatiquement les instances de calcul optimales, ajuste dynamiquement les ressources, optimise continuellement les coûts et gère les add-ons essentiels. De plus, il permet de personnaliser les paramètres de mise en réseau des nœuds, les ressources de calcul, les classes de stockage et les comportements de répartition de charge des applications. C’est une évidence, mais cette fonctionnalité simplifie effectivement considérablement la gestion des clusters Kubernetes sur AWS.
De l’observabilité des containers avec Container Insights
Puisqu’on parle de containers, signalons qu’AWS a également lancé à Re:Invent 2024 sa nouvelle solution « Amazon CloudWatch Container Insights », un outil de surveillance pour les applications conteneurisées. Il collecte et résume les métriques et les journaux des conteneurs, offrant des données sur l’utilisation du CPU, de la mémoire, du disque et du réseau. Compatible avec Amazon ECS, EKS, Amazon Fargate et Kubernetes sur EC2, il fournit des diagnostics pour identifier et résoudre les problèmes, comme les échecs de redémarrage des conteneurs. Les métriques sont visualisables dans des tableaux de bord automatiques et vous pouvez configurer des alarmes pour être alerté en cas de dépassement de seuils spécifiques. AWS précise que « grâce aux métriques Kube-State, nos clients peuvent disposer d’une visibilité globale sur les composants principaux et l’état général d’un cluster Kubernetes, ce qui permet aux IT de surveiller l’état en temps réel et de détecter rapidement les problèmes ou les goulots d’étranglement ».
Des services Cloud et du… .NET ?
Dans la longue litanie des améliorations et innovations autour de la gigantesque galaxie des services Cloud d’AWS, trois « nouveautés » ont attiré notre attention car elles devraient parler à la plupart des DSI s’intéressant un peu de près au cloud AWS.
AWS Glue 5.0, la colle d’integration d’AWS passe en v5
Amazon a donc officialisé la disponibilité générale de son service AWS Glue 5.0, dernière version du service d’intégration de données serverless d’AWS. Cette mise à jour majeure apporte des améliorations significatives pour la découverte, la préparation et l’intégration des données provenant de sources multiples. Sur le plan technique, AWS Glue 5.0 intègre Apache Spark 3.5.2, Python 3.11 et Java 17. Il prend également en charge les formats de table ouverts majeurs que sont désormais Apache Hudi 0.15.0, Apache Iceberg 1.6.1 et Delta Lake 3.2.0.
La sécurité a été renforcée grâce à l’intégration native du contrôle d’accès granulaire via AWS Lake Formation, permettant de gérer les permissions au niveau des tables, colonnes, lignes et cellules pour les lacs de données hébergés sur Amazon S3.
Une nouveauté importante est la prise en charge de SageMaker Lakehouse, qui permet d’unifier les données entre les lacs de données Amazon S3 et les entrepôts de données Amazon Redshift (cf notre article AWS Re:Invent 2024 : Amazon fait feu de tout bois sur l’IA). Le service est disponible dans plusieurs régions, notamment en Europe (Irlande, Londres, Stockholm, Francfort), en Amérique du Nord, en Asie-Pacifique et en Amérique du Sud.
Un invité surprise : .NET
On ne peut pas dire qu’il existe une grande histoire d’amour entre Microsoft et AWS. Ni qu’AWS soit le cloud de prédilection des développeurs .NET.
Et pourtant, il a beaucoup été question de .NET sur ce Re:Invent 2024. Mais pas forcément dans le sens de Microsoft. En réalité, AWS reconnait l’adoption croissante du framework open source et cross-plateforme dans les entreprises. Et AWS y voit une opportunité pour… abandonner Windows aussi bien côté serveur (Windows Server) que côté client !
Matt Garman, CEO d’AWS, a présenté sa nouvelle solution comme un véritable “easy button” (« un petit bouton c’est simple pour moi », ça vous rappelle quelque chose ?) pour quitter l’environnement Windows.
Amazon Q Developer s’enrichit de nouveaux agents permettant aux entreprises de migrer facilement leurs applications Microsoft .NET vers Linux. Et AWS promet une réduction jusqu’à 40% des coûts d’exploitation et une accélération significative des délais de migration, passant de plusieurs mois à quelques jours. Ces agents analysent automatiquement les fichiers ciblés, identifient les composants nécessitant une mise à niveau, élaborent un plan de transformation et exécutent automatiquement la mise à niveau du code et des fichiers de configuration. Dit autrement, AWS insuffle une IA dans son univers dont le seul but est de permettre aux entreprises de s’affranchir aisément de Windows pour leurs applications métiers en contournant la complexité du déploiement sur les serveurs Windows et en s’affranchissant des licences Microsoft.
Lambda SnapStart for Python et .NET
De .NET il en a aussi été question dans les évolutions de la plateforme serverless FaaS (Functions as a Service) Lambda ! Le service va enfin proposer la fonctionnalité SnapStart pour les fonctions écrites en .NET ainsi que celles en Python ! Pour rappel, SnapStart est un plus incontournable qui améliore considérablement les performances des fonctions serverless en pré-initialisant les environnements d’exécution et en mettant en cache leur état mémoire et disque de sorte que leur exécution soit immédiate lors d’une invocation à froid. SnapStart n’était jusqu’ici disponible que sur les fonctions Lambda écrites en Java.
De la Data et des Bases
AWS a beaucoup parlé d’IA… Et donc forcément de données et de moyens pour les gérer. Là encore, il est impossible d’être exhaustif. Nous avons gardé ici les 4 annonces qui nous semblent tout à fait clé.
Aurora DSQL, le SGBD le plus rapide de l’univers ?
Aurora, la base distribuée d’Amazon, fêtera bientôt ses 10 ans d’existence. Pour célébrer cet évènement, AWS a lancé « Amazon Aurora DSQL », une nouvelle base de données SQL serverless hautement distribuée, compatible PostgreSQL. La solution garantit une disponibilité de 99,99% en configuration mono-région et 99,999% en configuration multi-région, grâce à une architecture active-active qui élimine les temps d’arrêt traditionnellement associés aux basculements et aux changements de configuration.
L’architecture d’Aurora DSQL repose sur une approche désagrégée qui sépare le traitement des transactions du stockage. En configuration mono-région, le système réplique synchroniquement toutes les données de journal validées vers des réplicas de stockage dans trois zones de disponibilité. Pour les déploiements multi-région, Aurora DSQL assure une réplication synchrone des écritures entre les régions, permettant une cohérence forte des lectures et des écritures depuis n’importe quel cluster lié.
La principale trouvaille d’Aurora DSQL réside dans le contrôle de concurrence optimiste (OCC) qui se démarque des approches traditionnelles basées sur le verrouillage. Cette méthode permet d’assurer que les transactions longues n’impactent pas les performances des autres transactions en cours, un atout évidemment crucial pour la montée en charge.
Aurora DSQL est ainsi une alternative à Azure CosmoDB et Google Spanner. Et Matt Garman, le CEO d’QWS promet que « Aurora DSQL délivre des écritures et des lectures 4x plus rapides que Spanner ! ».
Au passage on signalera que l’arrivée d’Aurora DSQL s’accompagne d’une baisse de prix de 50% sur DynamoDB ‘on-demand’, l’autre base de données distribuée d’AWS.
MemoryDB Multi Region en GA
Et puisqu’on est dans l’univers des bases distribuées, restons-y. AWS a annoncé la disponibilité générale d’Amazon MemoryDB Multi-Region, pour répondre aux défis critiques de la gestion des données multi-régions. Pour rappel, MemoryDB est une base « on memory » qui stocke toutes les données en RAM et qui est compatible avec Redis et son alternative Valkey.
MemoryDB Multi-Region propose une architecture active-active offrant une disponibilité de 99,999%. Cette solution garantit des latences de lecture en microsecondes et des latences d’écriture en millisecondes à travers multiples régions AWS. La réplication asynchrone entre régions s’effectue typiquement en moins d’une seconde, assurant une cohérence rapide des données. Pour répondre aux exigences réglementaires et de conformité, MemoryDB Multi-Region permet aux entreprises de choisir précisément les régions de stockage de leurs données.
S3 Tables, le stockage objet réinventé ?
Autre annonce notable, la nouvelle offre de stockage « S3 Tables » d’Amazon se veut un vrai « game changer » pour l’industrie du stockage d’objets, selon les termes mêmes du CEO d’AWS : « S3 Tables réinvente complètement le stockage objet spécifiquement pour le monde des lacs de données afin d’offrir de meilleures performances, un meilleur coût et une meilleure évolutivité. Je pense que cela change la donne pour les performances des data lakes ».
Fondamentalement, S3 Tables est un nouveau type de Bucket spécialement imaginé et optimisé pour l’analyse de données. Il utilise le format Apache Iceberg et promet des performances d’interrogation multipliée par 8 (par rapport aux buckets traditionnels S3) et aucune tâche de maintenance.
Queryable Object Metadata S3 Buckets, parce que les métadonnées s’interrogent
Autre nouveauté dans le très populaire univers S3, S3 Metadata, actuellement en preview, répond aux enjeux de découverte et de compréhension des données. Ce service indexe automatiquement les mutations dans un bucket S3 et stocke les métadonnées dans une table S3, permettant des requêtes SQL via Amazon Athena ou tout autre outil compatible Iceberg.
Et la Cyber ?
Moins positionné comme « fournisseur de solutions de cybersécurité » que ses concurrents Google et Microsoft, AWS tend à aborder la cybersécurité comme un sujet très transversal composé de fonctionnalités réparties sur tous ses services et centralisées dans son portail de pilotage du Cloud.
Une nouveauté mérite toutefois qu’on s’y attarde en guide de conclusion de ce compte rendu des annonces « non IA » de ce Re:Invent bien gonflé en nouveauté.
AWS Security Incident Response avec des experts à l’intérieur
Dans un contexte où seulement 60% des organisations disposent d’un plan de réponse structuré face aux cyberattaques, AWS lance son propre service de réponses à incidents cyber. Combinant automatisation IA et expertise humaine, le service « AWS Security Incident Response » veut apporter une aide pragmatique et efficace pour accompagner les entreprises dans leur lutte contre les ransomwares, les vulnérabilités, les failles et autres tentatives d’intruision. Le service réalise un triage automatisé des alertes via Amazon GuardDuty, permettant aux équipes de sécurité de se concentrer sur les menaces les plus critiques. L’interface unifiée centralise la gestion des incidents, facilitant la collaboration entre les différentes parties prenantes et le suivi en temps réel des performances. Le support expert constitue un pilier essentiel de cette solution, avec un accès permanent à l’équipe AWS de réponse aux incidents. Les entreprises conservent néanmoins leur autonomie, pouvant choisir entre une gestion indépendante ou un accompagnement personnalisé selon leurs besoins.
Au final ce « Re:Invent 2024 » aura tracé le portrait d’un AWS qui a cessé de s’asseoir sur sa position dominante pour renouer avec l’innovation et l’envie de bouleverser les positions existantes. Derrière toutes ces annonces réside une volonté claire d’AWS d’adapter le Cloud aux enjeux imminents, qu’il s’agisse de durabilité, d’efficacité, d’IA ou de souveraineté des données. Qu’elles répondent à des logiques purement économiques, concurrentielles ou environnementales, ces décisions esquissent en filigrane les grandes tendances de 2025 : un Cloud plus économe, plus vert, plus hybride et plus distribué. De quoi, on peut l‘espérer, inspirer l’ensemble du marché et préparer dès aujourd’hui les fondations d’un futur numérique où innovation, performance et écoresponsabilité ne s’opposent plus.
À LIRE AUSSI :