Mettre l’humain au cœur de l’IA

Data / IA

Mettre l’humain au cœur de l’IA : vers plus d’équité et de transparence

Par La rédaction, publié le 27 mars 2025

L’essor technologique de l’IA soulève des défis et des questions d’éthique majeures. En ne les prenant pas en compte, nous prenons le risque d’éroder la confiance du public et d’exacerber les inégalités sociales. Dès lors, comment concevoir des systèmes d’IA éthiques qui minimisent les biais et assurent la transparence, deux des défis les plus critiques ?


Par Ahmad Montaser Awal, Directeur de recherche chez IDnow, et
André Carreiro, Coordinateur du projet ACHILLES et chercheur à l’institut Fraunhofer AICOS


Les modèles de Machine Learning sur lesquels reposent l’IA apprennent à partir de données fournies par les humains. Ils peuvent reproduire et amplifier les schémas biaisés existants, perpétuant ainsi préjugés, inégalités et stéréotypes.
Ces biais peuvent avoir plusieurs origines : ils peuvent découler de disparités au sein de la population (par exemple, la majorité des infirmières sont des femmes), être systémiques (comme la corrélation entre certaines zones géographiques et origines ethniques), provenir de notre histoire et de la banalisation du racisme, du sexisme ou de l’homophobie, ou bien encore résulter d’erreurs de mesure (les personnes discriminées en raison d’un critère, comme l’orientation sexuelle, étant moins enclines à le déclarer).

Par exemple, les algorithmes de reconnaissance faciale utilisé par la police aux États-Unis dès 2010 étaient très performants sur des hommes blancs (1% d’erreur), mais beaucoup moins sur des femmes de couleur (35 à 38% d’erreur), débouchant ainsi parfois sur de fausses accusations de crime.

Diversifier les données et atténuer les biais

Grâce à l’utilisation de données synthétiques, il est possible, comme dans le projet européen ACHILLES, de générer des ensembles de données plus diversifiés et représentatifs pour alimenter les modèles de l’IA. Ces données apportent une solution aux problèmes liés au manque de diversité des données et aux potentiels biais discriminatoires qui en découlent. Elles permettent de combler artificiellement les lacunes des données réelles.

Dans le domaine de la dermatologie par exemple, des échantillons synthétiques ont été créés pour pallier le manque d’images de patients à la peau foncée, réduisant ainsi les biais des modèles de diagnostic. Des solutions telles que celles développées dans le projet européen MAMMOth, rassemblés au sein d’une boîte à outils intuitive et facile à utiliser, permettent d’identifier et de corriger les biais, à la fois dans les données et les modèles.

Assurer la transparence

Autre défi, la transparence. Celle-ci est essentielle pour établir une relation de confiance entre les systèmes d’IA et leurs utilisateurs. La transparence ne se limite pas à expliquer comment une décision a été prise. Elle inclut l’ensemble du processus, de la conception du modèle à son déploiement.

L’AI Act, qui constitue le premier cadre légal régissant l’utilisation de l’IA à l’échelle européenne, adopté en juillet dernier, recommande que chaque système d’IA soit accompagné d’une documentation claire et accessible, telle que des « cartes de modèles ». Ces documents permettent de décrire les tests effectués, les limites du système, et les populations pour lesquelles le modèle est optimisé. Ils facilitent les audits et renforcent la confiance des utilisateurs et des régulateurs. Une transparence accrue amène cependant d’autres défis de taille liés à la protection des données et de la propriété intellectuelle. Il faudra relever ces défis pour garantir une IA éthique.

Conformité réglementaire

Les réglementations telles que le Règlement Général sur la Protection des Données (RGPD) et l’AI Act de l’Union Européenne jouent un rôle crucial pour encadrer le développement de systèmes éthiques. Il est essentiel que les réglementations se penchent davantage sur l’équité et les standards de transparence, pour une plus grande confiance et pour favoriser l’adoption par les utilisateurs. Par exemple, les réglementations actuelles ne précisent pas toujours comment mesurer l’équité d’un modèle ou quels standards de transparence adopter.

Des initiatives comme le projet européen ACHILLES cherchent à aligner les développements techniques sur les normes éthiques et juridiques de ces réglementations. En impliquant des équipes pluridisciplinaires – experts techniques, juristes et sociologues – le projet vise à établir des normes pratiques et robustes. Cette collaboration est essentielle pour garantir la prise en compte des besoins des utilisateurs, les contraintes techniques et les implications légales dès la phase de conception.

Pour une IA éthique et durable

L’autre défi est de concevoir des systèmes plus durables avec pour priorité de réduire la consommation énergétique des modèles tout en permettant une utilisation efficace des modèles IA, sans compromettre l’éthique. Côté développements, l’objectif est de faire en sorte que les principes tels que l’équité, la transparence et la confidentialité soient intégrés dans chaque étape du cycle de vie de l’IA, depuis la collecte des données d’apprentissage jusqu’au déploiement. Dans cette perspective, les systèmes d’IA doivent être conçus en tenant compte des besoins réels des utilisateurs finaux. Une IA destinée à la santé, par exemple, devrait intégrer des retours des praticiens et des patients dès la phase de conception. Des outils comme le MAMMOth Toolkit (4) ou les catalogues de recommandations de l’OCDE offrent des cadres concrets pour guider les développeurs dans cette direction. Enfin, les cadres législatifs comme le RGPD et l’AI Act de l’UE évoluant rapidement, il est essentiel pour les entreprises d’anticiper la législation et d’investir dans des équipes juridiques capables d’interpréter ces règlements et de les traduire en exigences techniques.

L’IA éthique n’est pas une option, mais une nécessité. En minimisant les biais et en assurant la transparence, il est possible de construire des systèmes de confiance, bénéfiques pour tous.



À LIRE AUSSI :

À LIRE AUSSI :

À LIRE AUSSI :

Dans l'actualité

Verified by MonsterInsights