Newtech
“Nous entrons dans l’ère de l’informatique prédictive”
Par La rédaction, publié le 06 septembre 2017
Boosté par le cloud et par la disponibilité de volumes croissants de données, le HPC, ou calcul haute performance, se banalise. Il commence à sortir de ses cas d’usage traditionnels, de la simulation numérique notamment. Président de Teratec, Gérard Roucairol dresse un état des lieux et éclaire des pistes d’avenir.
L’édition annuelle du forum Teratec semble dénoter la démocratisation du HPC. Confirmez-vous cette tendance ?
Tout à fait ! Le nombre d’acteurs amenés à utiliser le calcul haute performance croît considérablement grâce à la combinaison de deux facteurs. Le premier est bien sûr lié au fait que le nombre d’entreprises ou individus susceptibles d’utiliser des moyens de calcul et d’archivage puissants peut augmenter de manière importante par l’utilisation de clouds dédiés. Le second facteur repose sur une extension très large des domaines d’application de la haute performance qui amène de plus en plus d’acteurs à utiliser des systèmes puissants. Ce phénomène est accéléré par l’usage de méthodes statistiques de type big data ou de l’apprentissage artificiel (machine learning), qui s’ajoutent aux méthodes plus traditionnelles de simulation numérique s’appuyant sur la modélisation exacte de lois physico-chimiques (mécanique des fluides, combustion, turbulence, modélisation moléculaire…).
Si maintenant nous observons de manière un peu synthétique toutes ces méthodes qui utilisent des systèmes de calcul et d’archivage à haute performance, il est intéressant de constater que nous entrons véritablement dans une autre époque de l’informatique. Après plusieurs décennies pendant lesquelles celle-ci a surtout servi à automatiser des tâches, nous pénétrons dans l’ère de l’informatique prédictive voire prescriptive. En d’autres mots, il ne s’agit plus seulement d’automatiser, mais de prévoir, grâce à des capacités d’analyse devenues beaucoup plus puissantes et faciles à utiliser, le comportement de phénomènes, d’objets, d’individus les plus divers dans des contextes de plus en plus variés. Ainsi, au-delà de la prévision météorologique ou du comportement d’un nouvel avion en vol, on va pouvoir prévoir par exemple l’apparition de maladies chez certains individus, le comportement de consommateurs pour certains produits ou encore les réactions d’un véhicule autonome dans son environnement routier.
Quels sont les secteurs dans lesquels cette informatique prédictive va d’abord se développer ?
Si nous prenons l’angle de cette informatique prédictive, la capacité d’anticiper l’apparition de certains événements et de prévenir leurs effets néfastes ou d’exploiter avant d’autres leurs effets positifs, la possibilité de concevoir des produits et services sans avoir à procéder par essai et erreur en grandeur réelle constituent des avantages compétitifs considérables pour les entreprises. Dans tous ces cas, il va falloir obtenir des prévisions ou des prédictions pertinentes et réalistes dans un minimum de temps, voire en temps réel, à partir du calcul de milliards de points dans un espace donné ou l’examen de milliards de données collectées sur Internet, ce qui justifie l’emploi de la haute performance.
Un des grands domaines d’utilisation de cette informatique prédictive généralisée va être de pouvoir proposer à des individus des recommandations personnalisées en appliquant sur un modèle construit à partir des données d’une large population quelconque, des données propres à un individu. Les domaines de la grande distribution ou de la santé, notamment, seront probablement bouleversés en profondeur par ces méthodes. En effet, ce type d’approche va permettre d’atteindre une forme de Graal économique. Les méthodes prédictives favorisent en effet une personnalisation de masse qui va assurer une meilleure adaptation aux besoins de chaque consommateur, ou de chaque patient, tout en rendant possible tout type d’optimisation du système interne à l’organisation qui va élaborer et délivrer les produits et services concernés. Par exemple, dans le domaine de la santé, une meilleure connaissance de chaque patient va permettre de mieux anticiper, voire prévenir l’arrivée de certaines pathologies, tout en optimisant dans un hôpital la gestion des lits ou les parcours de santé. Dans un système de grande distribution, une meilleure connaissance de chaque client va non seulement permettre de mieux satisfaire ses besoins, mais aussi d’optimiser les approvisionnements et la gestion des stocks.
Vous parliez de la modélisation de phénomènes physico-chimiques comme l’un des piliers en amont du HPC. Comment va-t-elle coexister avec des approches plus récentes basées sur l’analyse des données ?
Il faut une approche globale de la prédiction informatique et ne pas se spécialiser a priori dans telle ou telle méthode en ignorant les autres. Si on prend le domaine de la santé, on pourra prédire la probabilité d’apparition de telle ou telle maladie chez un individu par l’usage de données collectées via des objets connectés de toutes sortes, ou encore par l’analyse de radiographies ou du séquençage de son génome. Mais on pourra aussi anticiper l’occurrence d’accidents cardiovasculaires, à partir de la modélisation de la circulation du sang dans le système sanguin via les équations de la mécanique des fluides. Ce sont du reste les mêmes équations qui régissent l’écoulement de l’air autour des ailes d’un avion. Dans d’autres domaines, comme celui de la cosmétique par exemple, on pourra grâce à la haute performance et à l’utilisation de modèles physico-chimiques prédire l’efficacité de certains produits par rapport à différents types de peau ou de chevelure.
Où en sont la France et l’Europe dans ce domaine ?
La France fait figure de leader en Europe et dans le monde. En matière de supercalculateurs, notre pays, grâce à Atos/Bull, est l’un des quatre pays dans le monde, aux côtés des États-Unis, de la Chine et du Japon, à pouvoir participer à la course à la puissance de calcul, en l’occurrence atteindre l’exaflops (le milliard de milliards d’opérations par seconde). En matière de logiciels, la France dispose aussi de champions mondiaux, avec Dassault Systèmes ou ESI Group, pour satisfaire les besoins de l’Industrie manufacturière. Là où il va falloir être attentif, c’est à la création d’une industrie du logiciel dans les nouveaux domaines d’application et dans la mise en œuvre des nouvelles méthodes de prédiction fondées sur le big data ou l’apprentissage artificiel. Je suis persuadé en effet que dans le domaine de la santé, un nouveau secteur va émerger à la suite de l’industrie pharmaceutique et de celle des équipements biomédicaux. Il va s’agir d’une industrie du logiciel de santé.
Dans ce domaine où l’accès à des données les plus variées et en grande quantité est primordial, il est clair que les GAFA peuvent installer très rapidement un quasi- monopole. Cependant nous disposons en France des informaticiens et des statisticiens ou modélisateurs de la recherche publique ou privée qui, s’ils sont incités à le faire, peuvent très largement contribuer à créer une industrie compétitive en la matière.
Comment concrétiser ce sursaut ?
En France, il convient en premier lieu de sensibiliser très largement les petites et moyennes entreprises à l’usage de la haute performance. En particulier, l’État a confié à Teratec un programme national d’accompagnement des TPE, PME et ETI. Baptisé Simseo, il a pour mission de développer les usages de la simulation numérique en commençant par les entreprises des secteurs de la mécanique et du BTP. Un autre programme a été confié à Teratec, appelé DataPoc et qui concerne des « challenges du numérique ». Il s’agit d’améliorer la synergie entre les start-up et les grands groupes. Mentionnons aussi comme un autre pilier du programme Simseo, l’initiative HPC-PME soutenue par le Genci, l’Inria et BPIfrance qui vise à fournir à des start-up de haute technologie les moyens de calcul universitaires ainsi que la coopération avec des équipes de recherche publique. De son côté, l’Europe a décidé d’investir lourdement dans le soutien à la fois aux technologies ainsi qu’aux usages de la haute performance. Une première initiative dans ce sens est la mise en place d’un partenariat public-privé autour de la plateforme technologique européenne ETP4HPC. Plusieurs autres initiatives sont en préparation.
Quels sont les challenges et limites, technologiques et autres, à ce jour ?
Dans la course à la puissance de calcul, la gestion de l’énergie devient un enjeu majeur pour des raisons qui tiennent à la physique des semi-conducteurs. Les constructeurs informatiques s’accordent sur le fait qu’une machine d’un exaflop devra disposer d’une alimentation qui ne dépassera pas 20 MW, ce qui représente un formidable challenge technique. Une autre approche face aux enjeux énergétiques sera aussi d’avoir recours à des opérateurs spécialisés qui peuvent fournir une excellente performance avec des fréquences de fonctionnement moindres que celles de circuits universels, et donc consommant moins. Sur le plan du logiciel, la capacité pour les algorithmes de pouvoir expliquer le raisonnement qui les amène à proposer une prédiction ou une prescription va devenir un enjeu majeur de l’acceptabilité et du déploiement des méthodes prédictives. Dans ce domaine, une recherche de très haut niveau est indispensable en ce qui concerne les algorithmes fondés sur la statistique ou l’apprentissage artificiel. Sur le plan sociétal, il faut prendre conscience du fait que les algorithmes et les données concernés auront un impact direct sur les grands systèmes qui structurent notre société, comme les systèmes de santé, de transport, de la distribution d’énergie, les systèmes urbains, ceux de production et de distribution de produits de services… Disposer dans ce contexte de prédictions fiables s’appuyant sur des données de qualité et respectant des règles d’éthique devient alors un enjeu majeur d’efficacité, de sûreté, mais aussi d’acceptabilité par le plus grand nombre. Nous proposons donc de créer en France des centres d’essai et de formation pour favoriser, valider et certifier le développement de méthodes prédictives. Ces centres devraient s’appuyer sur un triptyque formé de professionnels du métier considéré, de professionnels de l’informatique ainsi que de modélisateurs et algorithmiciens. Ces centres auraient aussi la vertu d’accélérer l’industrialisation de ces méthodes afin de créer une industrie du logiciel compétitive permettant aussi de conserver et exploiter en France et en Europe les données produites dans nos pays tout en créant de l’emploi.
Propos recueillis par Patrick Brébion
GÉRARD ROUCAIROL
• 2009-2017 Président de Teratec
• 2002-2017 Président du conseil scientifique de l’Institut Telecom puis de l’Institut Mines-Telecom
• 2011-2016 Membre du conseil scientifique de l’Office parlementaire d’Évaluation des choix scientifiques et technologiques (OPECST)
• 2011-2014 Vice-président puis président de l’Académie des Technologies
• DE 1984 À 2008 Directeur scientifique du Groupe Bull
• DE 1969 À 1984 Assistant puis professeur à l’Université Pierre et Marie Curie ; professeur à l’université Paris-Sud, Professeur à l’ENS-Ulm, directeur du laboratoire de recherche en informatique d’Orsay