AWS Re:Invent 2024

Data / IA

AWS Re:Invent 2024 : Amazon fait feu de tout bois sur l’IA

Par Laurent Delattre, publié le 05 décembre 2024

Alors qu’AWS Re:Invent 2024 bat son plein, voici ce que les DSI doivent retenir du foisonnement d’annonces autour des IA, de la gouvernance des données et des infrastructures nécessaires aux IA.

Les deux dernières éditions d’AWS « Re:Invent » avaient laissé les observateurs sur leur faim avec une édition 2022 donnant l’impression que l’hyperscaler ronronnait et une édition 2023 offrant l’image d’un AWS se débattant pour rattraper son retard dans l’IA.

Mais, et c’est rassurant, l’édition 2024 renoue avec le foisonnement des premières éditions de la conférence. Depuis Lundi, les annonces fusent et le premier keynote d’importance, Mardi, a laissé les participants noyés dans un tsunami d’annonces et d’innovations principalement centrées sur l’IA. De quoi effrayer les DSI lorsqu’il reste encore 3 jours de conférence avec trois gros Keynotes « innovation » encore au menu !

Chez IT for Business, la rédaction en est arrivée à la conclusion qu’il serait impossible cette année de tout résumer en un seul papier, comme nous avions l’habitude de le faire, afin d’offrir une vision à 360° de la stratégie Cloud d’Amazon.

Cet article se focalise donc sur les principales annonces IA du Keynote de mardi, quitte à le compléter ultérieurement si d’autres annonces IA majeures venaient à émerger dans les prochains jours.

Ce qui est certain, c’est que le visage IA donné cette année par AWS est à la fois plus complet, plus avant-gardiste, moins marketing, plus pragmatique et plus technique que l’an dernier. C’est un peu comme si AWS avait retrouvé le goût de l’innovation et de l’aventure en y imposant sa propre empreinte plutôt que de s’aligner sur la concurrence.

Impossible d’être ici exhaustif et de tenter de lister toutes les nouveautés annoncées. Alors, plus modestement, voici les annonces que les DSI doivent retenir pour comprendre à la fois la vision d’AWS et son positionnement stratégique face à ses concurrents.

Des modèles, de la personnalisation intensive et de l’innovation

Même si Amazon vient d’annoncer un nouvel investissement de 4 milliards de dollars dans Anthropic et ses modèles Claude (portant son investissement total dans la jeune pousse à 8 milliards de dollars), l’hyperscaler n’a pas l’intention de jeter l’éponge sur l’univers des modèles fondation (y compris des modèles frontières). Ce n’est pas le genre de la maison. Amazon a donc présenté de nouveaux modèles « maison » dénommés « Nova » spécialement calibrés pour les nouvelles fonctionnalités de personnalisation et optimisation des modèles de sa plateforme Bedrock tout en innovant dans le domaine du contrôle des hallucinations et des outils pour jouer avec les IA.

Des modèles « maison » estampillés « Nova »

AWS a donc lancé durant ce Re:Invent 2024 une nouvelle famille de modèles fondation génératifs comportant dans un premier temps 4 modèles LLM et 2 modèles de génération d’images et vidéos. Avec Nova, Amazon veut s’imposer en concurrent sérieux de Microsoft, Google, Anthropic, Mistral AI, Meta et bien sûr OpenAI. Mais l’hyperscaler veut avant tout proposer aux entreprises une famille de modèles très cohérente, couvrant un vaste champ d’application et satisfaisant au mieux la variété des besoins IA et des cas d’usage de l’IA.
* Nova Micro, un SLM textuel, se distingue par sa rapidité d’exécution exceptionnelle, permettant l’analyse de documents jusqu’à 128 000 tokens avec une très faible latence au coût le plus bas.
* Nova Lite se veut très universel et adopte une approche multimodale optimisée pour offrir un excellent rapport qualité-prix.
* Nova Pro, adapté aux utilisations professionnelles avancées,  établit un compromis optimal entre rapidité, précision et coût, tout en gérant des contextes étendus jusqu’à 300 000 tokens.
* Nova Premier, dont le lancement est prévu début 2025, vise à repousser les limites du raisonnement artificiel complexe et s’affiche en concurrent des OpenAI « o1 », Google Gemini Ultra et Anthropic Claude Opus.
* Nova Canvas est un modèle génératif de création mais aussi d’édition d’images qui offre notamment aux utilisateurs un contrôle précis sur les palettes de couleurs et les compositions générées à partir de descriptions textuelles. Nova Canvas s’affiche ainsi en concurrent direct d’OpenAI Dall-E 3, Google Imagen 3, Adobe Firefly, Midjourney, Stable Diffusion et autre Flux Pro (de Black Forest Labs).
* Enfin, Nova Reel ouvre de nouvelles perspectives dans la création vidéo en entreprise avec la possibilité de créer des séquences de 6 secondes très réalistes et avec l’ambition d’étendre cette durée à 2 minutes d’ici 2025.

La famille Nova va également s’enrichir en 2025 de nouveaux modèles de traduction vocale (Speech-To-Speech) et de transformations multimodales (Any-to-Any).

Pour imposer Nova dans un paysage ultra-compétitif et surchargé, AWS ne fait pas dans la dentelle et joue la carte fatidique des « prix sacrifiés » avec une stratégie de tarification agressive, revendiquant des coûts inférieurs de 75% à ceux de la concurrence. De quoi fragiliser la position des jeunes pousses de l’IA, y compris d’un acteur européen comme Mistral AI.

Personnalisations et Garde-fous via Bedrock

Mais AWS joue également la carte de la personnalisation et de la sécurité grâce à une forte intégration avec les dernières fonctionnalités insufflées au cœur de la populaire plateforme Amazon Bedrock. Pour rappel Bedrock est un service serverless qui standardise l’accès aux différents modèles génératifs du marché et permet de les expérimenter et d’implémenter rapidement de l’IA au sein des applications d’entreprise. En plus de fournir un accès à divers modèles, Amazon Bedrock propose des fonctionnalités telles que la personnalisation des modèles avec des données spécifiques, la création d’agents capables d’exécuter des tâches complexes en appelant dynamiquement des API, et l’utilisation de bases de connaissances pour enrichir les réponses générées par les modèles avec des informations contextuelles pertinentes.

Ainsi, les modèles Nova sont compatibles et peuvent être utilisés en conjonction avec les fonctionnalités de « fine-tuning » et de RAG d’Amazon Bedrock pour permettre aux entreprises de personnaliser ces modèles avec leurs propres données et mieux contextualiser les rendus à leurs métiers.

Mais les modèles Nova tirent aussi profit des nouvelles fonctionnalités de contrôle des hallucinations et de distillation des modèles introduites dans Bedrock et annoncées à Re:Invent 2024 :

* Pour réduire les erreurs factuelles des modèles de langage, Bedrock introduit un mécanisme de vérifications automatisées des raisonnements (Automated Reasoning checks), une première dans l’industrie, qui permet d’encoder des règles de domaine (des règles métier, des règles éthiques, des règles de cohérence) dans des politiques vérifiables. Cette fonctionnalité enrichit le service « Amazon Bedrock Guardrails » qui offrait déjà des filtrages de sujets, contenus, mots, informations personnelles identifiables et des vérifications de contexte. Les nouvelles vérifications automatisées des raisonnements complètent ces filtrages grâce à une validation mathématique de validité des réponses (par le biais d’algorithmes logiques et de processus de raisonnement validant que le résultat généré n’est pas une hallucination).

* Bedrock propose désormais une fonctionnalité de distillation de modèles, qui automatise la création de modèles plus petits et spécifiques à partir des grands modèles de fondation, optimisant ainsi les performances et les coûts d’exploitation. Les modèles LLM « Nova » sont compatibles avec cette fonctionnalité.

* Deux nouvelles capacités d’évaluation dans Bedrock permettent d’évaluer les modèles et les applications d’IA de manière plus efficace, en utilisant des métriques de qualité et d’IA responsable à grande échelle. La première « Evaluation RAG » permet d’évaluer automatiquement les bases de connaissances utilisant la génération augmentée par recherche (RAG) via Bedrock Knowledge Bases. Cette évaluation s’appuie sur un LLM pour calculer différentes métriques, permettant ainsi de comparer et d’optimiser les configurations selon les besoins spécifiques. La seconde nouveauté concerne l’évaluation des modèles Bedrock à travers une fonction “LLM-as-a-judge“. Cette approche permet d’évaluer la qualité des modèles de manière similaire aux évaluations humaines, mais plus rapidement, de façon automatisée, et à moindre coût. Ces deux fonctionnalités visent à accélérer la mise en production des applications d’IA en automatisant leur évaluation sur plusieurs critères : précision, utilité et conformité aux principes d’IA responsable. Les résultats d’évaluation sont présentés avec des explications en langage naturel et des scores normalisés de 0 à 1.

Deux nouveautés dans Bedrock

AWS introduit deux fonctionnalités majeures dans l’API Bedrock :

* Le Prompt Caching représente une avancée significative dans la gestion des requêtes répétitives. Cette technologie permet de mettre en cache de manière sécurisée les prompts fréquemment utilisés, éliminant ainsi la nécessité de retraiter les mêmes informations à chaque sollicitation. Les résultats sont parlants : une réduction jusqu’à 90% des coûts et une diminution de la latence pouvant atteindre 85%.

* L’Intelligent Prompt Routing analyse automatiquement chaque prompt et le dirige vers le modèle de fondation le plus approprié au sein d’une même famille de modèles. Cette optimisation dynamique permet d’équilibrer efficacement la qualité des réponses et les coûts d’utilisation, générant des économies potentielles jusqu’à 30% sans compromettre la précision des résultats. Pour rappel, OVHcloud a également introduit la semaine dernière un mécanisme de routing de prompts.

Une adoption accélérée via PartyRock

L’an dernier, AWS introduisait PartyRock une plateforme intuitive et interactive pour essayer les modèles exposés via Bedrock et  créer des applications d’IA générative sans avoir besoin de coder. PartyRock est un peu le pendant AWS de Copilot Studio chez Microsoft.

Utilisant Amazon Bedrock, cette plateforme offre un environnement ludique pour expérimenter les modèles fondation, créer des applications variées et les partager facilement. Désormais accessible sans compte AWS, PartyRock ambitionne plus que jamais de rendre l’IA générative amusante et accessible à tous.

Ainsi, à Re:Invent 2024, AWS a annoncé que dès début 2025, tous les utilisateurs disposeront d’un quota d’utilisation quotidienne gratuite récurrente, sans besoin de carte de crédit. Vous pouvez désormais télécharger et traiter plusieurs documents simultanément, facilitant la création d’applications pour le traitement par lots, la comparaison de documents ou l’agrégation de contenu.

Mieux encore, un nouvel éditeur 100% visuel permet de personnaliser et étendre les applications IA existantes. C’est d’autant plus utile que PartyRock se dote d’un vrai catalogue d’applications IA : il permet d’explorer « des centaines de milliers d’applications » par catégorie ou fonctionnalité.
« Avec PartyRock, tout le monde peut devenir un constructeur d’apps IA » explique AWS. « Les applications peuvent être générées à partir d’une description textuelle, puis personnalisées et étendues avec des fonctionnalités supplémentaires à l’aide de l’éditeur visuel. Toutes les applications sont automatiquement optimisées pour les appareils mobiles et peuvent être partagées avec d’autres personnes. Pour faciliter l’affichage et l’utilisation de vos applications, vous pouvez créer votre page de playlist personnalisée. »

Des agents plus matures

Nous sommes en 2024… Et en 2024, les conférences ne parlent pas d’IA pure et dure… mais d’IA « Agentique » ! Et en la matière, AWS n’a jamais été en retard. Le concept d’agents IA est présent dans Bedrock depuis 2023 et a toujours été assez central au concept « Amazon Q », cet assistant IA bi-céphale qui veut aider les développeurs dans leur codage d’apps et les collaborateurs dans leurs usages numériques quotidiens.

Des agents qui collaborent grâce à Bedrock

Du côté de Bedrock, AWS lance la collaboration multi-agents. Bedrock offrait déjà des fonctionnalités agentiques comme la création automatique d’instructions à partir de prompts, l’orchestration de tâches à étapes multiples, l’interprétation dynamique de code, et le suivi de raisonnement.
Cette année, Amazon Bedrock introduit la collaboration multi-agents, permettant de créer, déployer et gérer plusieurs agents d’IA travaillant ensemble sur des tâches complexes nécessitant des compétences spécialisées. La fonctionnalité permet de coordonner des agents spécialisés via un agent superviseur, qui décompose les demandes, délègue les tâches et consolide les résultats.

Des agents « Dev » dans Amazon Q Developer

Introduit l’an dernier Amazon Q Developer est un assistant IA intégré aux principaux IDE (Visual Studio, VS Code, JetBrain, Eclipse, JupyterLab, Amazon EMR Studio et Glue Studio) qui peut être perçu comme un ensemble d’agents dédiés à faciliter le quotidien des développeurs.

Amazon Q Developer s’enrichit de nouveaux agents :
* De génération de documentation : Amazon Q Developer peut générer une documentation complète, comme des fichiers README et des diagrammes de flux de données.
* De revue de code : L’agent peut identifier et résoudre divers problèmes de qualité de code, y compris les mauvaises pratiques, les violations des conventions de nommage, les bugs potentiels, les erreurs logiques, les duplications de code, la documentation insuffisante et les vulnérabilités de sécurité.
* De Génération de tests unitaires pour automatiser le processus de génération de tests unitaires, y compris l’identification des cas de test et l’écriture des tests unitaires pour les fichiers de projet. Cela aide à améliorer la couverture des tests et à détecter les erreurs plus tôt dans le cycle de développement.

Mais pour les entreprises, le nouvel agent Q Dev le plus étonnant est sans conteste « .NET Transformation » qui vise spécifiquement à aider les entreprises à transformer leur code « Windows » en code « Linux » ! Amazon Q Developer lance et coordonne des agents qui peuvent découvrir automatiquement les incompatibilités, générer un plan de transformation et refactoriser les codes source .NET. Et il peut le faire sur des centaines, voire des milliers d’applications en parallèle ! Nous aurons l’occasion d’y revenir ultérieurement.

Des agents « métier » dans Amazon Q Business

Il n’y a bien sûr pas que les développeurs que l’IA peut aider. Et pour tous les autres collaborateurs, il y a « Amazon Q Business ». À Re:Invent 2024, Amazon a annoncé de nouveaux plugins et intégrations d’actions disponibles dès maintenant dans toutes les régions AWS où Amazon Q Business est disponible. Amazon Q Business prend désormais en charge plus de 50 intégrations d’actions avec des applications tierces populaires, telles que Microsoft Teams, Salesforce, et ServiceNow. Ces intégrations permettent d’effectuer diverses tâches directement depuis l’application web Amazon Q Business.

Amazon Q Business introduit surtout une nouvelle fonctionnalité d’automatisation des flux de travail animée par l’IA. Cette fonctionnalité permet de créer et de maintenir des flux de travail complexes en utilisant des descriptions en langage naturel, des procédures opérationnelles standard (SOP) ou des vidéos de processus. Une fois les flux de travail publiés, les utilisateurs peuvent suivre leur performance à l’aide d’un tableau de bord de surveillance riche en fonctionnalités, offrant des analyses détaillées sur l’exécution et l’efficacité des flux de travail.

Un SageMaker intégralement réinventé

Avec l’extension des usages IA, des modèles IA et la multiplication des agents IA, tous les acteurs du marché sont obligé de faire évoluer leurs plateformes de construction et déploiement des modèles et des applications IA. Google a vu très vite ce besoin poindre et a su faire de son Vertex AI un atout pour attirer les entreprises vers son Cloud. Lors de Microsoft Ignite 2024, Azure a enfin formalisé et unifié son approche avec une plateforme « Azure AI Foundry » très complète en appui sur les services d’OpenAI et la Microsoft Fabric.

AWS devait donc réagir d’autant que sa plateforme « SageMaker » a été conçue et crée il y a sept ans à une époque où l’IA et ses usages n’étaient évidemment pas ce qu’ils sont aujourd’hui.

Et l’hyperscaler n’y est pas allé du dos de la cuillère. Re:Invent 2024 marque une très importante refonte de toute la plateforme SageMaker pour en faire une « plateforme unifiée pour la donnée, l’IA et l’analytique ». « Le tout nouveau SageMaker inclut virtuellement tous les composants nécessaires pour l’exploration, la préparation et l’intégration des données, le traitement des données massives, l’analyse SQL rapide, le développement et l’entraînement des modèles de machine learning (ML), ainsi que le développement d’applications d’IA générative » explique Antje Barth, Principal Dev Advocate Gen AI chez AWS.

Une plateforme unifiée sur 3 piliers

Cette plateforme repose bien évidemment sur Bedrock pour tout ce qui est IA et Redshift pour ce qui analytique. Mais elle unifie tous les univers IA et analytique au sein d’un univers cohérent partagé. Un univers qui repose sur trois principaux socles :

– Le Socle SageMaker Unified Studio : ce nouveau « Studio » unifié joue le rôle d’interface centralisée intégrant tous les outils d’analytique et d’IA d’AWS (Bedrock, EMR, Redshift, Glue) pour faciliter la collaboration et l’accès aux données.

– Le socle SageMaler Lakehouse, une solution unifiant les concepts de data-lake et de data-warehouse, pour gérer toutes les données de façon unifiée. La plateforme, compatible avec Apache Iceberg, permet en outre d’analyser les données de différentes sources (S3, Redshift) sans déplacement donc à partir d’une unique copie. Elle offre des fonctionnalités de requêtes fédérées sur une grande variété de sources de données tierces. Par ailleurs, AWS annonce une intégration zero-ETL avec Lakehouse pour DynamoDB (sa base NoSQL) qui élimine le besoin de construire des pipelines ETL pour les workloads analytiques et ML.

– Le socle SageMaker Governance qui combine SageMaker Catalog (et ses centaines de modèles ML/GenAI approuvés) et Amazon DataZone pour offrir un contrôle granulaire des accès aux modèles d’IA et aux données, tout en intégrant des garde-fous pour prévenir les biais et les comportements toxiques des applications d’IA. Ce socle intègre également un service de traçabilité des données (Lineage) qui permet de visualiser l’historique des actifs de données, facilitant la validation et la confiance des données pour les analystes commerciaux mais aussi celui des équipes de gouvernance lorsqu’elles doivent rapidement répondre aux questions de conformité ou veiller à appliquer les politiques de données.

SageMaker Hyperpod prend des muscles

Lancé l’an dernier, SageMaker HyperPod est une offre hybride qui comporte un volet matériel avec des clusters dédiés à l’apprentissage IA à base de NVidia H100 et AWS Trainium2 que l’on peut allouer dynamiquement et un ensemble de logiciels spécialisés pour simplifier et accélérer l’entraînement des modèles, le tout piloté depuis SageMaker.

SageMaker HyperPod simplifie et optimise l’entraînement de grands modèles de machine learning en automatisant la gestion de l’infrastructure et en garantissant une résilience accrue, ce qui se traduit par des gains de temps significatifs et une meilleure efficacité opérationnelle.

Cette année, AWS introduit une nouveauté qui change la donne avec l’apparition de « plans de formation flexibles » où les clients peuvent spécifier leur budget et leurs délais, SageMaker organisant automatiquement les ressources nécessaires. Par exemple, si une entreprise souhaite entraîner un modèle sur deux mois avec 30 jours effectifs d’utilisation d’un GPU spécifique, SageMaker HyperPod identifie automatiquement la meilleure combinaison de ressources et gère leur allocation, y compris la mise en pause lorsque la capacité n’est pas disponible. Ses plans de formation flexibles permettent de garder un entraînement dans un budget prédéfini mais aussi d’éviter de sous-dimensionner les ressources (ce qui engendrerait un entraînement trop long) ou au contraire de surdimensionner inutilement les ressources (engendrant des frais inutiles).

Autre nouveauté importante et complémentaire, l’arrivée de « Recettes » (SageMaker HyperPod Recipes en anglais) prêtes à l’emploi pour l’entraînement de modèles populaires comme Llama et Mistral. Le concept part de l’idée que la plupart du temps les entreprises n’entraînent pas des modèles de zéro. Elles partent de modèles souvent open source comme LLama ou Mistral qu’elles « fine-tunent » ou qu’elles réentraînent avec leurs propres données. Ces « recettes » mâchent le travail et appliquent les bonnes pratiques et optimisations adéquates pour accélérer tout le processus et permettre aux entreprises qui ne maîtrisent pas les subtilités de ces modèles de démarrer en quelques minutes leur réentraînement ou personnalisation.

Enfin, SageMaker HyperPod s’enrichit d’une gouvernance des tâches qui optimise l’utilisation des accélérateurs de calcul, réduisant les coûts jusqu’à 40%.

SageMaker AI s’ouvre aux applications partenaires

AWS facilite également l’intégration d’applications partenaires directement dans SageMaker notamment pour des tâches très spécialisées ou verticalisées comme le suivi d’expériences ou l’évaluation des modèles. Les clients peuvent désormais découvrir, déployer et utiliser des outils spécialisés comme Comet, Deepchecks, Fiddler AI et Lakera de manière sécurisée et entièrement gérée, sans avoir à quitter leur environnement AWS. « SageMaker est le premier service à proposer un ensemble sélectionné d’applications partenaires entièrement gérées et sécurisées pour diverses tâches de développement d’IA générative et d’apprentissage automatique » explique AWS. « Cela offre aux clients une plus grande flexibilité et un meilleur contrôle lors de la création, l’entraînement et le déploiement de modèles, tout en réduisant le temps d’intégration des applications d’IA de plusieurs mois à quelques semaines ».

Des infrastructures massives pour l’IA

Précurseur des besoins de l’IA, Amazon a très tôt – peut-être même trop tôt – perçu l’intérêt de développer ses propres accélérateurs IA pour rendre l’intelligence artificielle plus performante mais surtout beaucoup moins gourmande en ressources et en énergie. Le futur leur a donné raison, et tous les hyperscalers développent désormais leurs propres chipsets IA.

Des Trainium3 en approche discrète

À Re:Invent 2024, AWS a annoncé l’arrivée en 2025 du Trainium3, troisième génération d’accélérateurs des entraînements des IA (AWS dispose aussi de puces Inferentia4 pour les inférences). Toutefois l’hyperscaler est resté très vague sur les disponibilités et les détails techniques de ses puces Trainium3. Il s’est contenté de préciser que cette puce sera la première du secteur à utiliser un processus de fabrication en 3 nanomètres ce qui lui permettra d’offrir une efficacité énergétique améliorée de 40%. Le Trainium3 se veut une alternative aux puces B200 de NVidia et aux TPUv5 de Google.

Des UltraServers en Trainium2

Car, au final, l’hyperscaler a préféré bien davantage s’étendre sur les différents déploiements massifs de son actuelle génération de puces, les Trainium2. Cette puce délivre 1,3 pétaflops en calcul dense FP8, accompagnée de 96 gigaoctets de mémoire HBM et une bande passante de 2,9 To/S. De quoi se révéler une alternative crédible et bien plus économique aux très exploités et très onéreux H100 de NVidia (avec leur 2 pétaflops en FP8, leur 80 Go de mémoire HBM et leur 3,35 To/s de bande passante). D’autant que la grande force du Trainium2 est qu’AWS peut aisément les combiner grâce à leur mode Sparce. Ainsi, les instances Trn2 d’EC2 dédiées à l’entraînement d’IA sont en réalité équipées de 16 puces Trainium2, offrant une capacité de calcul de 20,8 pétaflops.

Et à Re:Invent 2024, AWS a dévoilé une nouvelle solution pour combiner les Trainium2 : les AWS UltraServer. Un AWS UltraServer est une configuration avancée d’instances Trn2 EC2 conçue pour offrir des performances exceptionnelles pour l’entraînement et l’inférence de modèles d’IA à grande échelle. Les UltraServers connectent 4 instances Trn2 via un interconnect dédié à haute bande passante et faible latence, permettant ainsi de regrouper jusqu’à 64 puces Trainium2 en un seul nœud de 83,2 pétaflops !

Des Ultraclusters pour Anthropic

Sur le papier, AWS peut en théorie combiner les UltraServers pour créer des « UltraClusters » embarquant des centaines de milliers de puces Trainium 2 : 100.000 instances Trn2 combinées en un ultracluster représentent une puissance théorique d’apprentissage de 65 exaflops en FP8. Cela permet de gérer des modèles avec des milliers de milliards de paramètres, réduisant le temps d’entraînement des modèles fondation.

Et c’est exactement ce qu’AWS est en train de préparer pour son partenaire Anthropic. Connu sous le nom de « Project Rainier », l’hyperscaler est en train d’assembler un supercalculateur massif constitué de centaines de milliers de puces Trainium2. Cet ultracluster « Rainier » vise à multiplier par cinq la puissance de calcul actuellement utilisée pour l’entraînement des modèles d’IA d’Anthropic. En toute logique, lors de sa livraison opérationnelle en 2025, il devrait être l’un des plus grands systèmes d’entraînement d’IA au monde et figurer haut dans le classement sinon du TOP500 au moins du HPL-MxP (l’équivalent du TOP500 mais sur des Benchmarks IA en FP8/FP16 plutôt qu’en FP64).

AWS Re:Invent 2024 marque un tournant dans la stratégie IA de l’hyperscaler. L’entreprise passe d’une position de “suiveur” à celle de “leader”, avec une vision industrielle mature et cohérente. Le Cloud d’Amazon retrouve enfin une stratégie ambitieuse à même de consolider sa position sur un marché de l’IA qui a jusqu’ici davantage profité à Microsoft Azure et Google Cloud.

AWS semble cette fois bien plus en position proactive sur l’IA en mettant en avant la personnalisation, la gouvernance des données et l’infrastructure scalable au sein d’un écosystème propice à l’innovation, répondant aux nouveaux défis de la transformation numérique par l’IA. Cette fois, AWS a vraiment des arguments solides et des solutions concrètes pour convaincre les entreprises d’adopter l’IA avec son cloud et ses services.

À LIRE AUSSI :


À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights