Cloud
L’IA Watson à l’heure du multicloud
Par Laurent Delattre, publié le 15 février 2019
Avec sa nouvelle initiative « Watson Anywhere », IBM détache ses célèbres services cognitifs de son propre cloud pour en permettre l’hébergement sur tous les clouds…
C’est l’une des annonces phares de la conférence IBM Think 2019 qui s’est tenue cette semaine à San Francisco. Depuis des années, IBM a beaucoup centré sa communication sur sa marque « Watson » et ses API d’Intelligence Artificielle. Jusqu’ici, ces services IA étaient exclusivement hébergés sur IBM Cloud, constituant même l’un des principaux attraits de ce dernier aux yeux de bien des développeurs et entreprises clientes.
IBM a surpris tout le monde en annonçant son projet « Watson Anywhere » destiné à rendre sa plateforme Watson AI (qui héberge ses services cognitifs) entièrement portable de sorte qu’elle puisse être hébergée en local sur un cloud privé (et donc y compris sur une infrastructure Edge Computing au plus proche de la génération des données et des capteurs) mais également sur des clouds publics concurrents tels que AWS, Microsoft Azure ou Google Cloud Platform.
Pour IBM, cette initiative s’aligne avec l’évolution des demandes du marché. Les entreprises veulent désormais embarquer l’intelligence artificielle dans toutes leurs activités, tous leurs processus. Ce qui implique notamment de pouvoir exploiter les services cognitifs sur des données qui ne peuvent être déplacées pour des contraintes de conformité, de sécurité ou de performance temps réel. Elle s’aligne également sur les tendances « cloud hybride » et « multicloud » actuelles, les entreprises cherchant désormais à retrouver de la résilience et gagner davantage en souplesse dans leur exploitation du cloud. Selon IBM, 94% des entreprises seraient d’ailleurs déjà « multicloud ».
Selon IBM, la plateforme « Watson AI » est principalement construite à partir de containers hébergés sur une infrastructure Kubernetes. Profitant de son rachat de Red Hat, IBM ambitionne donc de la rendre complètement portable de sorte que les entreprises puissent exploiter les capacités de Watson sur les clouds de leurs choix.
L’approche d’IBM est intéressante mais n’est pas unique même si elle semble aller plus loin que celles d’AWS et Microsoft. AWS permet d’exporter certains de ses services de Machine Learning sous forme de containers pour l’inférence locale sur des objets connectés et embarqués. Microsoft propose en preview depuis la fin 2018 le support de Docker pour ses « Azure Cognitive Services » de sorte que les entreprises puissent exploiter certains des services de reconnaissance faciale, d’OCR ou d’analyse de texte de son cloud dans des containers à priori déployables sur du Edge Computing comme sur n’importe quel cloud.