Data / IA
Comment avoir confiance en l’IA…
Par Laurent Delattre, publié le 27 septembre 2018
A qui appartiennent les déductions et prédictions réalisées par les IA dans le Cloud ? Comment éviter des prédictions trompeuses parce que les données utilisées pour l’entraînement des moteurs IA étaient biaisées sans que personne ne s’en aperçoive ? Comment rendre le Deep Learning explicable pour être sûr de la pertinence de son analyse ? Certaines réponses commencent à se former…
Une récente étude Packt montrait tout l’intérêt que les développeurs d’entreprises et les data scientists portaient aux solutions IA dans le cloud, qu’il s’agisse d’utiliser des services cognitifs pour enrichir les interactions avec les consommateurs et les utilisateurs ou qu’il s’agisse d’utiliser les services de Machine Learning pour faire parler les données et établir des prédictions. Mais l’étude montrait également que ces acteurs phares de l’adoption de l’IA en entreprise se préoccupaient pour plus de la moitié d’entre eux d’une des questions les plus importantes soulevées par ces technologies : les biais. La réflexion humaine est affectée par des biais cognitifs qui altèrent nos raisonnements. Ils font notre unicité mais ils nous conduisent à préférer les éléments qui confirment nos hypothèses, ou à retenir en priorité des informations récentes par exemple au détriment de données plus anciennes mais qui pourraient être plus pertinentes. L’intelligence artificielle n’est pas soumise aux mêmes biais mais comme elle apprend de données qu’on lui donne à travers des algorithmes paramétrés par des humains, la pertinence de ses analyses peut être, elle aussi, affectée par des biais. Par exemple, aux USA, une IA aide les juges à décider de la remise en liberté conditionnelle. Elle défavorisait au départ systématiquement les gens de couleurs car les données utilisées pour l’entraîner n’étaient pas équitables engendrant un « biais ». A l’échelle des traitements informatiques, ces biais peuvent se transformer en arme de discrimination massive. Il en découle des problématiques éthiques, techniques, et juridiques que les entreprises commencent à peine à comprendre et à mesurer.
De la propriété des analyses IA
Une récente étude menée par l’Institute for Business Value d’IBM révèle que même si 82 % des entreprises envisagent de déployer l’intelligence artificielle, 60 % craignent les problèmes de responsabilité et 63 % n’ont pas les compétences internes nécessaires pour gérer cette technologie en toute confiance. L’étude met ainsi en exergue les problèmes de responsabilité, de pertinence et de véracité des décisions prises par les solutions d’Intelligence Artificielle.
« Les règlements comme le GDPR européen sont bienvenus mais ils resteront inefficaces s’il n’entraîne pas un vrai changement des mentalités. Nous devons tous nous engager dans des pratiques d’IA et de données responsables » martelaient Ginni Rometty, la CEO d’IBM lors de VivaTech. Elle rappelait par exemple qu’IBM considère que les données des utilisateurs hébergées dans son cloud n’appartiennent qu’à eux et que, par-dessus tout, les observations-analyses-prédictions qui en découlent leur appartiennent tout aussi exclusivement. L’intention est louable mais la réalité plus contrastée surtout à l’heure où tous les grands clouds se livrent une guerre acharnée pour imposer leurs services cognitifs et leurs services de Machine Learning. Pouvoir exploiter toutes les données de tous les clients pour améliorer les reconnaissances de la voix, des images, des risques de sécurité par exemple est non seulement une aubaine mais à l’heure actuelle souvent une nécessité pour prendre de l’avance sur la concurrence.
… à la pertinence des déductions IA
Pour autant, l’appropriation des déductions IA n’est pas la seule problématique à avoir des répercussions juridiques. Il faut aussi que l’on puisse comprendre le fonctionnement des IA et s’assurer de l’explicabilité et de la pertinence de leurs raisonnements.
L’une des réponses envisagées par les entreprises consiste à passer par des comités d’éthiques. Satya Nadella, le CEO de Microsoft rappelait récemment « quand on pense à la puissance de calcul pure offerte via le Cloud, et comment cette puissance de calcul peut être utilisée pour collecter et analyser ces données, on a de quoi attraper le vertige. C’est une opportunité sans limites. Mais c’est aussi une responsabilité. En tant que compagnie technologique, notre responsabilité est de construire une confiance en ces technologies. C’est aussi de s’assurer qu’elles aideront chacun équitablement… Le temps est désormais venu de se demander non pas ce que les ordinateurs peuvent faire, mais ce qu’ils devraient faire ! ». Microsoft a ainsi créé un « Conseil d’Éthique » multidisciplinaire destiné à gouverner tous les projets « IA » de l’éditeur. D’autres sociétés, notamment Google, ont également créé des comités d’éthiques. De son côté, Ginni Rometty rappelait qu’« il ne peut y avoir d’IA sans confiance. Le but de l’IA est d’augmenter et non pas de remplacer l’esprit humain. Les données, analyses et observations que nous fournit l’IA doivent rester la pleine propriété de l’utilisateur. En conséquence, l’IA doit impérativement être transparente, compréhensible et explicable. ».
Malheureusement, les moteurs de Machine Learning et Deep Learning sont souvent considérés comme des boîtes noires dans lesquelles personne ne sait pas trop ce qui passe. Pour leur donner davantage de transparence afin de contrôler la pertinence de leurs raisonnements, il faudrait d’une part pouvoir maitriser les données utilisées pour l’apprentissage mais aussi d’autre part pouvoir éclairer ce qui se passe au fin fond des réseaux de neurones profonds. Dans l’univers du Deep Learning, traçabilité et explicabilité sont des challenges difficiles à relever même si toutes les techniques IA ne sont pas aussi obscures et que les moteurs de règles par exemple offrent davantage de traçabilité.
Comme on l’a vu en introduction, la maîtrise des données d’apprentissage d’un réseau de neurones profond est une problématique aussi critique que celle des algorithmes qui modèlent le traitement. D’elles dépend en grande partie la délicate problématique des biais qui peuvent provenir des données elles-mêmes mais aussi des paramétrages du réseau de neurones. Ils sont le talon d’Achille de tout système IA destiné à prendre des décisions ou guider des humains dans leurs décisions.
Des solutions pour éviter les biais ?
Reste que tout espoir de voir l’intelligence artificielle moins sensible aux biais que l’esprit humain n’est pas perdu. Accenture a présenté au printemps dernier un outil dénommé AI Fairness Tool destiné à aider les entreprises à limiter les risques de biais et à les détecter. L’outil évalue toutes les variables et regarde comment elles s’influencent entre elles. Il identifie et retire toutes les influences pouvant conduire à une forme d’injustice. Mais l’outil reste relativement technique.
De son côté, IBM vient d’apporter une première brique pratique pour non seulement détecter automatiquement les biais mais également « expliquer » les décisions automatiques émises par les solutions de Machine Learning. Ce service Cloud est compatible avec Watson ML bien sûr mais également avec TensorFlow, SparkML, AWS SageMaker et AzureML. Entièrement automatisé, il déchiffre la prise de décision du moteur ML et détecte les biais dans les modèles d’IA au moment même où les décisions doivent être prises. Il repère les résultats potentiellement injustes, biaisés voire erronés, lors de l’exécution. Mieux encore, il recommande automatiquement des données à ajouter au modèle pour aider à atténuer tout biais détecté. Le tout est exposé sous forme d’un service SaaS accessible aux utilisateurs finaux et fournit des tableaux de bord ainsi que des explications en clair compréhensibles par le commun des mortels. Pour donner plus de transparence à sa démarche, les chercheurs d’IBM ont également publié en open source un toolkit « AI Fairness 360 » composé d’algorithmes et d’utilitaires permettant aux chercheurs, data scientists et développeurs d’incorporer une détection des biais et une traçabilité dans leurs propres modèles et moteurs de Deep Learning. Voilà donc une première étape importante vers des IA explicables et de confiance… Mais ce n’est qu’un début…