Cloud
Se dirige-t-on vers un CloudExit ?
Par Alain Clapaud, publié le 04 mars 2024
Bien que, depuis les années 2010, les mots d’ordre soient « move to cloud » et « cloud first », quelques notes dissonantes commencent à se faire entendre. Certains géants du digital trouvent la note trop salée et décident de réinternaliser leurs applications. Les prémices d’un mouvement de rapatriement plus large ? Vers un CloudExit ?
Récemment, Elon Musk a annoncé sa volonté de tailler dans ses coûts d’infrastructures
et de réduire drastiquement une dépense qui atteint le milliard de dollars par an, dont une bonne partie facturée par Google Cloud… Twitter/X ira-t-il jusqu’à quitter le cloud ? Rien n’est jamais assuré avec son dirigeant, mais plusieurs grandes entreprises du digital ont déjà fait des annonces dans ce sens. Dès 2015, Dropbox avait migré les fichiers de ses 500 millions d’utilisateurs hors du cloud d’AWS et stocké ces 500 Po de données sur ses propres infrastructures. Plus récemment, 37signals, éditeur du service Basecamp, est le premier à avoir communiqué dans le détail sur ce retour au on-premise. Qualifiant sa facture cloud d’« obscène », David Heinemeier Hansson, son CTO, a décidé de migrer ses instances AWS vers de bons vieux serveurs Dell en colocation dans un datacenter. Et les économies attendues sont bien au rendez-vous. La facture AWS de 3,2 M$ en 2022 (2,3 M$ pour les applications et 0,9 M$ pour le stockage S3) a été ramenée à 600 000 $ par an sur cinq ans pour l’achat des serveurs et 60 000 $ par mois pour la colocation des racks, soit environ 1,3 M$ par an pour les cinq années à venir. Tout dernièrement, c’est LinkedIn qui a réduit l’ambition de son projet Blueshift de migration de l’ensemble de systèmes applicatifs vers Azure : le cloud public de Microsoft ne sera finalement utilisé que lorsque cela sera vraiment approprié.
Une explosion des coûts systématique
Ce sont surtout les coûts du cloud qui font grincer les dents de nombreux DSI, et pas uniquement chez les géants mondiaux du digital. Outre les récentes hausses de tarifs décrétées par de nombreux fournisseurs cloud, pratiquement tous les DSI qui ont lancé une initiative de type « move to cloud » n’ont pu que constater l’explosion des volumes facturés. Notamment parce que le nombre de workloads s’accroît à un rythme plus élevé que prévu, du fait que les utilisateurs métiers et les informaticiens profitent à plein de la puissance et de la scalabilité du cloud. Généralement, un programme FinOps vient ramener le calme et remettre la facture sous contrôle. Toutefois, certains DSI décident d’aller plus loin, jusqu’à remettre à plat leur approche vis-à-vis du cloud. Pour Dennis Smith, distinguished VP analyst chez Gartner, ce retour d’expérience des premiers projets move to cloud doit pousser les DSI à bien évaluer leurs options pour migrer le reste de leur portefeuille d’applications : « Les entreprises commencent à rechercher un placement pour les charges de travail qui n’ont pas migré vers le cloud public, soit environ 70 % de toutes leurs charges de travail. Le nombre croissant de fournisseurs, de technologies et de marchés qui se chevauchent rendent toutefois difficile l’identification de l’infrastructure optimale permettant de répondre à leurs besoins spécifiques. »
Le 100 % cloud ne s’avère peut-être pas nécessairement la cible la plus pertinente, ni même le « cloud first », qui reste pourtant la doctrine la plus usitée actuellement. Ainsi, la BPCE est revenue sur sa stratégie cloud first pour aller vers une stratégie plus balancée entre cloud privé et cloud public. « Le cloud first était un mouvement visant à profiter du cloud public sur tous les projets qui apparaissent adaptés au cloud », raconte Monica Sciortino, head of Solution Architecture, Cloud & API chez BPCE. « Nous sommes aujourd’hui revenus un cran en dessous en allant du cloud first vers un cloud intelligent. En tant qu’architecte, j’estime que le cloud first n’est pas une bonne approche : il faut tout d’abord se poser la question de l’utilisation des bonnes ressources IT en fonction de la problématique que l’on doit traiter. Nous ne sommes ni cloud first, ni cloud privé first, mais pour le cloud juste. » En pratique, le groupe bancaire continue de privilégier le cloud public pour les services qui y sont déjà, car cela reste plus pertinent que de chercher à construire des hybridations complexes. « De même, nous consommons dans le cloud des services à haute valeur ajoutée, notamment pour les projets IA et de data science. Dans ce cas, les services cloud restent de vrais accélérateurs de projets. Enfin, nous allons aussi vers le cloud dans le cadre de notre politique d’open innovation. Quand on travaille avec des start-up, souvent “cloud native”, il est important de pouvoir partager les mêmes environnements. » En parallèle, le groupe investit et modernise son cloud privé pour bénéficier de la même flexibilité que celle offerte par les fournisseurs cloud : « Nous sommes passés des machines virtuelles aux conteneurs, ce qui nous permet de rationaliser encore un peu plus l’exploitation de nos serveurs. BPCE-IT a fait énormément d’efforts pour que les développeurs et les “Ops” aient les mêmes capacités de provisioning que celles qu’ils peuvent trouver sur le cloud public. Par ailleurs, on applique le DevSecOps sur nos infrastructures internes, et on y propose également un mode “infrastructure as code”. »
Les systèmes hyperconvergésen ligne de mire
D’autres DSI peuvent en décider autrement. C’est le cas chez cet éditeur français spécialisé dans le secteur de la finance qui a aussi entrepris de quitter AWS. « Comme beaucoup d’entreprises qui ont fait le choix d’aller dans le cloud, nous avons vu les coûts de nos infrastructures exploser. Face à cette hausse incontrôlable, nous avons fait le choix de les réinternaliser. » Un autre moteur de cette décision se trouvait dans les exigences de conformité, qui pèsent très lourd dans le secteur banque/assurance : « Nos clients sont très regardants quant à la manipulation des données personnelles de leurs clients. En réinternalisant nos infrastructures cloud, nous maîtrisons complètement l’accès aux données, et nous évitons de tomber sous la coupe du Cloud Act. En outre, nous bénéficions de la certification SecNumCloud d’OVHcloud qui rassure nos clients. » En effet, si le DSI a fait le choix de migrer tous ses serveurs et son infrastructure Kubernetes sur des machines dédiées, celles-ci sont hébergées chez OVHcloud. Une approche qui lui évite d’acheter des machines et présente l’avantage d’avoir des coûts fixes et prévisibles. « Il était hors de question pour nous de partir sur une infrastructure bare metal et de refaire de la virtualisation comme on en faisait il y a 20 ans ! Cela nous aurait demandé des efforts considérables en termes d’administration. Cette réinternalisation n’était possible que parce que nous avons une solution qui nous permet de mettre en place une infrastructure extrêmement moderne, avec des conteneurs et une approche DevOps très simple à administrer. »
« Le coût des infrastructures est exorbitant, et ne cesse d’augmenter. Une infrastructure de données déployée en mode on-premise et hébergée par exemple chez OVHcloud va coûter beaucoup plus cher lorsqu’elle sera portée sur Azure. D’un côté on avait des produits open source gratuits et des solutions supportées par une communauté ou une ESN comme Hurence, de l’autre on a des services managés qui ne sont plus du tout gratuits. La note devient rapidement très salée. »
— Laurence Hubert, PDG de Hurence
Pour aller chercher la flexibilité du cloud dans le on-premise, et pour retrouver une simplicité d’administration équivalente, il a misé sur les systèmes hyperconvergés de Nutanix. La migration a toutefois été complexe : « Elle a été beaucoup plus longue que prévue. Nous avons mis six mois de plus du fait, notamment, du manque de coopération de l’un de nos prestataires cloud. Cela a représenté un surcoût certain, mais à terme, je considère que cela reste la meilleure solution pour de multiples raisons. » Si l’objectif de maîtrise des coûts est atteint, la formation des équipes au DevOps s’est avérée nécessaire à la fois pour mener cette migration et pour être autonome sur cette infrastructure on-premise. « Le choix d’héberger la plateforme Nutanix sur OVHcloud nous apporte la capacité d’évoluer. Nous pouvons rapidement ajouter des machines dans nos clusters et accroître les performances de notre infrastructure Kubernetes. Nous ambitionnons de faire de l’IA et nous nous sommes assurés que la plateforme nous permettra de le faire en mode on-premise. Grâce à ce choix de l’hyperconvergé, nous sommes sereins vis-à-vis de l’avenir. »
Un « move to on-prem’ » encore exceptionnel en France
Clairement, une telle initiative reste exceptionnelle en France, où bon nombre de DSI sont au milieu de l’exécution de leur stratégie de move to cloud. Pourtant, dès 2019, une étude menée auprès de 350 entreprises américaines par IHS Markit (S&P Global) révélait que 74 % d’entre elles avaient déjà déplacé une de leurs applications dans le cloud public avant de la réintégrer sur leur propre infrastructure. La théorie des analystes était que ces entreprises effectuaient des mouvements bidirectionnels de certaines de leurs applications : après les avoir testées sur une infrastructure cloud éphémère, elles les rapatriaient une fois stabilisées. En 2022, IDC enfonçait le clou avec une étude (voir p.41) montrant que 71 % des personnes interrogées prévoyaient de transférer tout ou partie de leurs charges de travail actuellement exécutées dans des clouds publics vers des environnements informatiques privés au cours des deux prochaines années. L’enquête, opportunément sponsorisée par un constructeur de serveurs – Supermicro en l’occurrence – expliquait que seuls 13 % des répondants prévoyaient d’exécuter toutes leurs charges de travail dans le cloud.
« J’ai des clients soit dans le cloud, soit on-premise, soit hybrides. J’en ai certains, dans les services publics, pour qui le cloud reste encore un gros mot. Et d’autres pour qui c’était le cas il y a quelques années, et qui ont fini par basculer dans une approche hybride, notamment dans les secteurs de la finance et de l’énergie. Le cloud est devenu un must-have. Maintenant, voir certains remigrer dans l’autre sens, c’est un peu un de ces retours de balancier auquel l’informatique nous a habitués depuis 30 ans. L’emprise du cloud n’est pas éloignée de celle d’IBM avec ses mainframes à une époque…»
— Emmanuel Dubois, cofondateur d’Indexima
Cette proportion atteignait 85 % quelques années plus tôt !
Cette vague annoncée de rapatriements des charges de travail sur des infrastructures on-premise ne s’est pas encore abattue sur nos côtes, comme l’explique Laurence Hubert, PDG de Hurence, une ESN spécialisée dans les projets data : « Deux clients nous ont démarchés pour lancer ce type de projet, sans toutefois se décider. Ils réfléchissent depuis plus d’un an et demi et hésitent encore à se lancer… » De fait, les entreprises qui ont déployé leurs data lakes et exploitent les outils de reporting et d’analyse des grands fournisseurs cloud, ont beaucoup de mal à revenir en arrière. « Les grands du cloud poussent à la consommation de ces ressources, proposent des outils extrêmement performants. Aujourd’hui, la volonté pour une entreprise de colocaliser données et services pour obtenir de bonnes performances la contraint à rester chez ces fournisseurs cloud. D’une certaine manière, elle s’emprisonne elle-même. »
Difficile de se couper des bénéfices du cloud
Nombreuses sont les raisons d’hésiter à rapatrier ses applications en mode on-premise. Pour commencer, un tel mouvement peut être perçu par le Comex et par les actionnaires comme un aveu d’échec de la transformation digitale. D’autre part, il y a cet « enfer du chemin inverse », comme l’appelle Emmanuel Dubois, cofondateur d’Indexima, un éditeur spécialisé dans les solutions big data : « Opérer un retour en arrière peut se révéler un enfer du fait de la perte de compétences internes quant à la gestion d’infrastructures. Il faut apprendre à refaire des “Ops” d’une certaine manière. »
« Comme beaucoup d’entreprises, nous avons lancé une initiative « cloud first » en 2016/2017. Nous avons alors consacré des moyens afin de monter en compétences sur plusieurs clouds publics, et nous avons effectivement constaté que le cloud allait nous apporter beaucoup de choses intéressantes. Néanmoins, en tant qu’établissement bancaire, nous sommes soumis à un certain nombre de réglementations et contraintes qui ne nous permettaient pas d’entrer dans une démarche cloud first à 100 %. De fait, nous avons fait progresser en parallèle notre cloud privé. L’idée était d’aller vers une hybridation qui nous permet de profiter du cloud public là où cela apporte le plus de bénéfices à nos métiers, tout en restant conformes aux exigences du régulateur, et de garder en interne ce sur quoi que nous souhaitons rester en maîtrise. »
— Monica Sciortino, head of Solution Architecture, Cloud & API chez BPCE
Un autre frein réside dans un « vendor lock-in » subtil, qui n’est pas lié à la migration des données : si certains hyperscalers appliquent un surcoût lié à l’export de gros volumes de données, les quelques milliers d’euros que cela représente ne sont qu’une goutte d’eau dans le bilan économique d’un tel projet. Le vendor lock-in se matérialise plutôt au niveau des applications connexes dont il n’est pas toujours évident de trouver un équivalent open source, et surtout au niveau
du flux incessant d’innovations qu’apportent les hyperscalers : sevrer les développeurs des nouveautés qui apparaissent sans cesse chez les grands fournisseurs cloud, comme par exemple les dernières innovations en termes d’IA qui se multiplient ces derniers mois, est un choix difficile pour un DSI.
Emmanuel Dubois enfonce le clou : « Se représenter le chemin inverse de ce qui vient d’être fait lors de la migration vers le cloud devrait déjà en refroidir plus d’un, surtout quand des éléments de l’infrastructure ont été modernisés pour le cloud, voire sont désormais cloud-native. » Et de s’amuser de ce potentiel retour de balancier vers le on-premise : « Au temps des mainframes, certaines entreprises étaient entre les mains d’IBM tant pour l’infrastructure que pour le soft. L’emprise des hyperscalers m’y fait penser dans un certain sens… Pour s’en prémunir, la réversibilité doit être envisagée dès le départ, et même testée. Cela permet d’en faire un sujet opérationnel et non uniquement légal. » Le secteur de la data sur lequel est présent Indexima est aussi l’objet de tels coups de balancier… Ainsi, les pionniers du big data, qui ont installé des clusters Hadoop en interne pour expérimenter de premiers data lakes, ont fini par prendre le chemin du cloud public, attirés par la flexibilité d’un BigQuery, d’un RedShift ou d’un Snowflake. Devront-ils un jour réinternaliser ces ressources ?
Pour l’heure en France, le mouvement vers le cloud reste fermement établi. La nouvelle doctrine de l’État « cloud au centre » devrait pousser le dernier village breton – celui que constituent les grandes administrations nationales – à migrer vers le cloud. Un renversement de tendance initié par les géants du digital est-il possible ? Il y a encore loin de la coupe aux lèvres et les déclarations d’intentions pointées par les études sont encore loin de se traduire dans les faits… et dans des baisses de chiffre d’affaires des hyperscalers.
À LIRE AUSSI :