

Cloud
Richard Smith (Oracle) : “Chaque GPU disponible est immédiatement consommé”
Par Thierry Derouet, publié le 18 mars 2025
De Madrid à Paris, en passant par d’autres grandes capitales, l’Oracle CloudWorld Tour bat son plein. Lors de son escale française, Richard Smith, vice-président exécutif d’Oracle pour le Cloud et l’architecture d’entreprise (EMEA), a partagé sa vision des grandes transformations en cours. Décryptage d’un écosystème en pleine mutation.
Dès qu’il prend la parole devant un groupe de journalistes spécialisés, Richard Smith s’amuse de son timbre fatigué : « Comme vous pouvez l’entendre, ma voix est un peu rauque. On a organisé un événement hier à Madrid, et aujourd’hui c’est Paris. C’est le rythme du Oracle Cloud World Tour en Europe, au Moyen-Orient et ailleurs. Je crois qu’à la fin, je n’aurai plus de voix du tout ! »
Mais l’essentiel est ailleurs. Loin d’un simple tour de conférences, ces rencontres s’inscrivent dans un moment clé pour l’industrie du cloud et de l’IA.
Une révolution en marche
Pour planter le décor, Richard Smith compare la montée en puissance de l’intelligence artificielle aux grandes ruptures technologiques passées : « On a parlé de révolution industrielle, de révolution numérique, d’internet… et maintenant, c’est l’intelligence artificielle qui bouleverse tout. Peu importe le terme, ce qui est certain, c’est qu’on est en plein changement, et pas des moindres, à l’échelle mondiale. »
Une révolution, certes, mais qui soulève des questions. « Je pense que c’est à la fois excitant, et qu’il faut agir avec bon sens, poursuit-il. Hier, j’ai discuté avec un groupe de clients sur ce qui serait, selon eux, une “bonne IA” ou une “IA moins bonne”. C’était très intéressant, car on réalise que la finalité compte autant que la technologie en elle-même. »

Cette question éthique n’est pas nouvelle chez Oracle. Richard Smith cite Larry Ellison, fondateur du groupe, qui milite pour une IA au service du bien commun, notamment dans le domaine de la santé : « Larry a des décennies de perspective et il est très concentré sur la question : “Comment utiliser l’intelligence artificielle pour le bien sociétal ?” Il en parle souvent avec passion, notamment sur la gestion des données de santé. »
Des LLM omniprésents sur Oracle Cloud
Très vite, la discussion glisse sur l’explosion des modèles de langage (LLM) et leur présence croissante sur Oracle Cloud Infrastructure (OCI). « Chaque fournisseur de LLM a construit des versions de son modèle fonctionnant dans OCI. Que vous parliez d’OpenAI, d’xAI, de Meta (Llama), ou d’autres, tous ont une forme d’entraînement ou d’inférence hébergée chez nous. »
Une stratégie qui paye !
Et les chiffres confirment l’ampleur du phénomène. Oracle affiche un volume d’engagements clients à honorer (« Remaining Performance Obligation ») de 130 milliards de dollars, en progression de 63 % sur un an. Une dynamique largement alimentée par les accords stratégiques signés avec les géants de l’IA. Sans surprise, cela signifie que, même lorsqu’un utilisateur interroge ChatGPT via Microsoft Azure, une partie des calculs peut être réalisée sur l’infrastructure d’Oracle : « Il y a de fortes chances que votre requête ChatGPT transite par OCI, grâce à notre partenariat avec Microsoft. »
L’entraînement et l’inférence fusionnent
Loin d’être une simple tendance, l’hébergement de modèles d’IA redéfinit les architectures IT. Richard Smith distingue deux grandes phases dans le cycle de vie d’un modèle : l’entraînement et l’inférence. Mais, selon lui, ces deux étapes convergent désormais : « Pendant longtemps, on a pensé à l’entraînement d’un côté et à l’inférence de l’autre. Aujourd’hui, on voit ces choses se rejoindre. Beaucoup d’entreprises veulent une IA capable de se réadapter en continu à de nouvelles données, ce qui fait exploser la demande en puissance de calcul. »
Il illustre son propos avec un exemple parlant : « Prenez une banque qui souhaite affiner ses modèles au fil de l’eau. Elle ne veut pas simplement former un LLM une fois et s’arrêter là. Elle veut une IA constamment à jour, ce qui mobilise d’énormes ressources. »
GPU et infrastructures : une course effrénée
Cette demande insatiable en puissance de calcul alimente une ruée vers les GPU, devenus la ressource la plus convoitée du moment. « Chaque fois que nous activons un centre de données, chaque fois, la capacité GPU est consommée immédiatement. Nous avons des listes d’attente de clients qui veulent cette puissance. »
C’est là qu’Oracle met en avant son infrastructure, pensée pour maximiser les performances. « Nous avons conçu OCI pour qu’il puisse interconnecter des milliers de GPU en parallèle grâce à une approche RDMA (Remote Direct Memory Access). Ça veut dire qu’on peut mener des entraînements massifs, ou de l’inférence continue, plus rapidement qu’ailleurs. »
Si Richard Smith concède que le prix des GPU finira par baisser, il estime que la demande restera forte. « Je ne dis pas qu’on ne fera pas de code plus optimisé. Mais, pour l’instant, l’IA se nourrit d’énormes capacités de calcul et la croissance est loin d’être finie. »
Développeurs : vers un modèle « less is more »
Un tel bouleversement soulève forcément la question du rôle des développeurs. Richard Smith ne tourne pas autour du pot : « À mon avis, nous aurons besoin de moins de développeurs “génériques”. Les tâches de base pourront être automatisées à l’aide d’agents IA, de moteurs de génération de code. Mais nous aurons en revanche besoin de plus d’experts capables de créer des architectures sophistiquées et de comprendre la finalité métier. »
Il partage une discussion récente avec un client du secteur de la supply chain : « 95 % de nos fonctions sont communes à ce que font d’autres éditeurs. Je veux automatiser cette partie pour me concentrer sur les 5 % où je peux innover. »
Oracle Cloud Souverain : séparation totale
Au-delà de la puissance brute, la souveraineté des données est un autre sujet brûlant. Oracle a ainsi déployé des régions de cloud souverain en Allemagne et en Espagne, isolées de son cloud public. « Elles sont physiquement et électroniquement séparées. Il n’y a aucune interconnexion. »
Pour aller plus loin, Oracle a même créé des filiales locales, tout en garantissant que les clés de chiffrement restent entre les mains des clients. « Nous travaillons notamment avec Thalès, les clés de chiffrement sont détenues par l’opérateur local. C’est une brique essentielle, car elle garantit que même Oracle, au sens global, n’a pas la main sur ces données. »
Le quantique en embuscade
Enfin, impossible d’évoquer l’avenir sans parler du quantique. Oracle surveille de près ce domaine, même si Richard Smith admet que la complexité du silicium reste un frein. « Cela fait 10 ou 12 ans qu’on en parle. Mais est-on à deux ou trois ans de la viabilité commerciale ? Personnellement, je le pense. Et si cela se produit, ce sera un nouvel accélérateur colossal pour l’IA. »
« Nous ne ferons pas marche arrière »
Alors que la discussion touche à sa fin, Richard Smith résume l’état d’esprit du moment : « La demande est énorme, que ce soit pour l’entraînement ou l’inférence. On ne va pas revenir en arrière. Oracle veut y prendre toute sa part. »
Avant de quitter la salle, il sourit : « Dans quelques étapes, si je ne ménage pas ma voix, il me faudra un véritable agent IA pour tenir le micro. Mais jusque-là, je suis encore ravi de répondre moi-même à toutes vos questions ! »
À LIRE AUSSI :
