Data / IA
IA : Cinq principes pour une approche responsable
Par La rédaction, publié le 10 mai 2024
L’intelligence artificielle (IA) est depuis longtemps source de fantasmes. Cette obsession se matérialise dans certains chefs-d’œuvre de la culture internationale par le biais de films, romans ou séries tels que 2001 : L’Odyssée de l’espace, Metropolis, Blade Runner, Matrix, I, Robot ou Westworld, pour n’en citer que quelques-uns. La plupart soulèvent de profondes questions philosophiques à propos de la nature humaine et l’éthique de l’IA, généralement à travers un prisme plutôt pessimiste. A l’occasion du prochain Sommet sur la sécurité de l’IA, les 21 et 22 mai, les décideurs pourront s’appuyer sur la déclaration de Bletchley pour s’engager sur un développement sécurisé de la technologie. Voici 5 principes pour aider les entreprises à approcher un usage responsable de l’IA.
Par David Fairman, CIO APAC chez Netskope
La démocratisation de l’IA a franchi une nouvelle étape avec l’apparition des grands modèles de langage (LLM — Large Language Models). Mais au-delà des louanges qu’ils ont reçues, ces modèles de machine learning ont tiré de nombreuses sonnettes d’alarme, suscitant inquiétudes et interrogations : hallucinations, utilisation contraire à l’éthique, notamment dans les domaines de la désinformation ou de la violation des droits d’auteur. Ainsi, il est important de prévoir une mise en place de garde-fous sécuritaires et éthiques appropriés face à la menace que représente son utilisation à des fins malveillantes ou la création de systèmes d’IA défectueux susceptibles de générer de fortes ramifications sur la société.
Des discussions concernant la règlementation de l’IA ont lieu dans le monde entier, ce qui favorise une avancée saine en la matière. Les eurodéputés ont ainsi voté en faveur d’une loi sur l’intelligence artificielle de l’UE en mars 2024, qui influencera probablement d’autres règlementations au niveau planétaire, à l’instar de ce que le RGPD a fait pour la protection de la vie privée. Fin novembre, dix-huit pays ont également signé un accord visant à faire de la sécurité la première des priorités en matière de conception de l’IA.
S’il est rassurant de voir que des gouvernements commencent à adopter de façon proactive des lois et des règlementations relatives à l’IA, il convient de souligner que les latences législatives risquent de repousser de quelques année leur effet tangible sur e l’utilisation non éthique et dangereuse de la technologie. En parallèle, il incombe aux entreprises de prendre le problème à bras-le-corps, car elles auront plus que jamais l’occasion de consommer, d’expérimenter, d’intégrer et de développer des systèmes d’IA au cours des mois et des années à venir. Certains principes doivent donc être pris en compte et utilisés comme lignes directrices pour y parvenir selon une approche responsable.
1- Les 4 piliers de la sécurité et la protection de la vie privée
Dans un premier temps, les entreprises doivent veiller à ce que les données confidentielles ne soient pas exposées aux outils publics d’IA générative, et que la vie privée des employés ne soit pas menacée, en prenant également en compte les aspects éthiques. Deuxièmement, l’IA est le nouvel écosystème visé par les groupes de cyberattaquants. Ainsi, face à l’augmentation des menaces émergentes, les entreprises doivent se tenir informées et protéger leurs systèmes et leurs employés.
Par ailleurs, il est possible de créer des applications d’IA en toute sécurité en adoptant des processus de confidentialité par conception (privacy by design) et de sécurité par conception (security by design), sans omettre de sécuriser l’environnement et la supply chain où l’IA est développée. Enfin, protéger les modèles d’IA et leurs données d’apprentissage en production, en particulier contre les menaces telles que l’empoisonnement des données qui pourraient rendre le modèle défectueux et/ou biaisé.
2 – La place de la transparence et de l’explicabilité
Pour les organisations qui développement des systèmes d’IA, le principe de transparence qui permet d’expliquer et, le cas échéant, démontrer les décisions est important. En effet, certains choix pris, dits en « boîte noire », reflètent le problème d’explicabilité des décisions des algorithmes. Or, les entreprises doivent pouvoir être en mesure de tracer et de prévoir les résultats de ses systèmes d’IA.
3 – La portée d’une réflexion relative aux biais et à l’équité
Les entreprises qui développent des modèles d’IA doivent s’assurer qu’ils sont construits de façon impartiale et qu’ils sont équitables sur le long terme. Plusieurs méthodes existent telles que le prétraitement (pre-processing), une méthode d’atténuation appliquée au jeu de données d’entraînement avant qu’un modèle l’utilise pour se former. La technique en cours de traitement (in-processing) est intégrée au processus de formation du modèle proprement dit. Les méthodes de posts-traitement (post-processing) travaillent, quant à elles, sur les prédictions du modèle pour atteindre le niveau d’équité souhaité.
4 – Le principe de collaboration inclusive
L’utilisation de l’IA étant évaluée dans tous les domaines, c’est un principe selon lequel les différentes parties prenantes et équipes (métier, risque, juridique & conformité, sécurité, ou relations publiques) sont impliquées dans le processus de conception et de supervision de l’IA. Ainsi l’implication des différentes parties prenantes contribue à la prévention des biais et à la qualité des résultats des algorithmes.
5 – Nommer des responsables
Afin de garantir un équilibre et une fluidité dans les échanges au sein d’une entreprise, il est essentiel de définir à qui appartient chaque système d’IA utilisé et qui en est responsable. À qui incombe la tâche de s’assurer qu’un outil d’IA continue à fonctionner correctement ? Qui est responsable en cas de problème ? Quelles sont les implications potentielles aux niveaux juridique et règlementaire pour l’entreprise, ainsi que la (ou les) personne(s) responsable(s) ?
Dans l’attente de nouvelles règlementations et de leur mise en œuvre dans les processus de chaque organisation, l’IA va sans cesse s’enrichir de nouvelles fonctionnalités. Dans ce contexte, ces cinq principes permettent de contribuer à l’essor d’une IA responsable et sûre, transformant un facteur de différenciation en un avantage concurrentiel.
À LIRE AUSSI :
À LIRE AUSSI :