Data / IA
Le collectif français “Confiance.ai” passe à l’action
Par Laurent Delattre, publié le 06 octobre 2022
Soutenu par des fonds de France 2030, le programme “Confiance.ai” a présenté ses premières réalisations, un socle d’outils et de méthodes pour développer des composants IA de … confiance.
La question du fonctionnement sûr, explicable et équitable des intelligences artificielles est un sujet critique pour toutes les entreprises de tous les secteurs. L’IA ne pourra prétendre à son rôle transformateur que si l’on peut lui accorder une confiance mesurable, voire certifiable. La détection des biais, l’explicabilité des raisonnements qui conduisent aux résultats présentés, la compréhension des mécanismes cognitifs, les questions de preuve formelle des systèmes d’apprentissage sont des sujets critiques à la frontière entre l’informatique, les statistiques, les mathématiques, les data-sciences et les sciences cognitives.
Lancé début 2021 pour une durée de 4 ans, le programme Confiance.ai regroupe aujourd’hui une cinquantaine de partenaires industriels et académiques. Financé à hauteur de 30 M d’euros dans le cadre du plan France 2030, il est le pilier technologique du grand défi « Sécuriser, fiabiliser et certifier des systèmes fondés sur l’intelligence artificielle » que s’est fixé l’État français.
Plus de 300 personnes interviennent aujourd’hui sur le projet représentant 150 ETP. Les équipes sont composées de chercheurs et d’ingénieurs détachés par les partenaires industriels.
Concrètement, l’objectif est de construire une boite à outils de méthodes et de logiciels ayant vocation à devenir le socle de développement des composants d’IA pour les systèmes critiques. Le cadre contractuel fluidifie le passage de la propriété intellectuelle, des équipes de R&D aux industriels partenaires. Tous ces composants se veulent répondre aux exigences les plus fortes pour assurer la confiance dans les systèmes critiques, pour le pilotage d’Airbus jusqu’aux véhicules plus ou moins autonomes en passant par celui des chaînes de montage.
À LIRE AUSSI :
Outre la compétitivité pour les entreprises, ces composants d’IA devront aussi remplir les critères et exigences du futur « IA Act », prévu pour 2024. Des exigences qui seront basées sur un cadre normatif en cours de définition. Il s’agit bien sûr d’assurer la robustesse des développements, leur « transparence » et leur explicabilité sans oublier leur fiabilité. Les composants d’IA devront non seulement être qualifiés, mais aussi aptes à être maintenus dans des conditions opérationnelles.
À côté de l’Afnor et d’autres organismes similaires européens, plusieurs membres du programme Confiance.ia participent à ces travaux normatifs. Si les responsables du projet espèrent proposer des outils génériques, les quatre filières, aéronautique, défense, énergie et automobile sont ciblées dans un premier temps. Les projets se répartissent autour de trois thématiques, les systèmes, les données et l’interaction homme-système, un thème surtout centré sur l’explicabilité.
Une première série d’outils concrets
Vingt mois après son lancement, les responsables ont présenté une première série d’outils et de méthodes. Sans surprise, l’un des premiers projets à consister à outiller la définition de la confiance, différente selon les cas d’usage. L’outil permet entre autres de définir les objets du projet et ses « propriétés » de confiance indispensables.
Dans sa version actuelle, ce pack d’outils propose quatre plateformes dédiées aux problématiques de l’IA de confiance :
– Une consacrée à la gestion du cycle de vie de la donnée (acquisition, stockage, spécifications, sélection, augmentation) ;
– Une dédiée à l’explicabilité, dont l’objectif est de rendre en des termes compréhensibles par un humain les choix et décisions prises par une IA ;
– Une destinée à l’embarquabilité des composants d’IA qui doit permettre d’une part, d’identifier sur la base des spécificités matérielles du système cible les contraintes de conception à respecter, et d’autre part, d’accompagner tout au long de la réalisation et ce, jusqu’au déploiement du composant dans le système ;
– Et, enfin, un ensemble de librairies dédiées à la robustesse et au monitoring des systèmes à base d’IA. Elles permettent notamment d’assurer que le système et son composant d’IA évoluent bel et bien dans le contexte préalablement défini (Operational Domain Design).
À LIRE AUSSI :
Avec ces outils qui forment la version « 1.0 » du framework « confiance.ai », onze cas d’usages ont déjà fait l’objet de travaux et une vingtaine sont en passe d’être lancés. Ils commencent également à être utilisés chez des partenaires. Safran a, par exemple, installé « on prem » les premières versions des outils dédiés à tester la robustesse et l’explicabilité tout en évaluant au passage leur interopérabilité avec ses propres outils de Machine Learning. De son côté, Yves Nicolas, Deputy Group CTO de Sopra Steria estime que « les travaux 2022 de confiance.ai nous permettent d’ores et déjà de concrétiser la promesse d’une IA de confiance déployable en production. Sur plusieurs cas d’usage métier, nous avons pu en effet évaluer plusieurs paramètres de confiance tels que l’explicabilité et la robustesse au sein d’une chaine MLOps industrielle, prête à se conformer aux règlementations à venir telles que l’AI Act ».
Dernier exemple, Renault. Pour Antoine Leblanc, expert AI Industry 4.0 de la DSII PESI chez Renault Group, « l’enjeu de l’adoption et de l’intégration des solutions d’IA dans les systèmes industriels est un challenge d’autant plus important qu’il s’accompagne, pour les équipes Manufacturing de Renault Group, d’un changement de culture et de méthodes. Le programme Confiance.ai nous livre des outils clés en main, testés sur les cas d’usage industriels, proposés par nos équipes, qui nous permettent de consolider notre démarche globale de gestion des données industrielles. Aide à la qualité d’annotation, à la visualisation des données ou encore à la mesure de l’acceptabilité sociale de l’IA sur un poste industriel, les solutions proposées par les partenaires du programme Confiance.ai renforcent la robustesse de nos procédés et le temps d’exploitation de la donnée ».
Le collectif poursuit ses travaux et accélère
Une version “2.0” du framework est d’ores et déjà en cours de développement. Et le collectif porte son attention sur de nouvelles thématiques tout aussi critiques pour instaurer une véritable confiance dans les IA. Il s’intéresse notamment aux très complexes relations entre l’humain et l’IA avec des expérimentations sur la confiance des utilisateurs et des études sur la cartographie de la situation morale, sur les interfaces des systèmes algorithmiques, sur la confiance “by design”, etc.
« La souveraineté des technologies numériques est au cœur des ambitions de France 2030. Nous devons à la fois protéger nos actifs et nos recherches, promouvoir nos valeurs mais également consacrer nos forces au développement d’une offre souveraine. Je constate qu’il existe déjà une vraie dynamique autour du programme Confiance.ai, qui réunit 50 partenaires déjà en mesure de proposer des solutions technologiques sur un marché estimé à 50 milliards d’euros. Ces travaux font de la France le leader de l’IA de confiance en Europe, c’est important de le souligner », conclut Bruno Bonnell, secrétaire général pour l’investissement, en charge de France 2030.
Une alliance pour un futur label franco-allemand sur l’IA de confiance et responsable
Le collectif du programme Confiance.ai rassemblant 13 partenaires fondateurs industriels et académiques de premier plan (Air Liquide, Airbus, Atos, CEA, Inria, Naval Group, Renault, Safran, IRT Saint Exupery, Sopra Steria, IRT SystemX, Thales et Valeo) annonce cette semaine la signature d’un Memorandum of Cooperation avec le consortium allemand conduit par la puissante organisation technlogique VDE (et rassemblant notamment Bosch, Siemens, Technische Universität Darmstadt, SAP, ITAS/KIT, iRights.Lab, Ferdinand-Steinbeis-Institut, BASF, TÜV-SÜD, IZEW Universität Tübingen).
Cette alliance vise à soutenir le futur règlement européen sur l’intelligence artificielle (AI Act), en créant courant 2023 un label commun franco-allemand sur l’IA de confiance et responsable. Ce dernier sera bien évidemment étroitement lié aux futures normes harmonisées. Il ambitionne de fournir les lignes directrices et spécifications pour les applications d’IA et préparer les écosystèmes au respect de l’AI Act en proposant un référentiel commu.