

Data / IA
La sous-représentation des femmes dans l’IA pose question
Par Xavier Biseul, publié le 27 mars 2025
Non seulement les femmes sont rares dans les équipes spécialisées, mais leur adoption des outils d’IA est inférieure à la moyenne. Cette sous-représentation entraîne des biais de genre et freine les évolutions professionnelles.
Pas de miracle. Le déficit de femmes dans les métiers du numérique se perpétue dans le domaine florissant de l’intelligence artificielle. Alors que l’IA est en train de redessiner les contours du monde et de son économie, une moitié de l’humanité y est sous-représentée. L’écosystème de l’IA n’emploie que 26,3 % de femmes dans l’Union européenne (25 % en France) et 22 % à l’échelle mondiale, selon une récente étude européenne de JFD (Join Forces and Dare), réalisée avec EY Fabernovel et OpinionWay.
Mécaniquement, ce manque de parité s’observe aussi dans les postes d’encadrement. Seuls 29 % des postes de responsables de départements IA dans les entreprises européennes sont occupés par des femmes (24 % en France). En matière d’adoption des outils, l’écart persiste aussi, les femmes ne représentant qu’un tiers des utilisateurs de ChatGPT.
Pour les auteurs de l’étude, ce manque de diversité dans le développement de l’IA ne pose pas qu’une question d’équité. Il freine aussi l’innovation et entraîne des implications sociétales potentiellement majeures. Car des équipes d’IA composées essentiellement d’hommes, jeunes, diplômés de grandes écoles, introduisent, consciemment ou non, des biais de genre en reproduisant une vision stéréotypée du monde.
Chercheuse en IA au MIT, Joy Buolamwini a défini ce phénomène sous le terme de « coded gaze » estimant que les valeurs, les hypothèses et les préjugés des développeurs sont intégrés dans les modèles qu’ils conçoivent. L’IA générative peut, en plus, entraîner un effet boule de neige, avec des images biaisées générées par IA réutilisées comme données d’entraînement.
Le monde réel déformé
Pour illustrer son propos, l’étude évoque le cas de l’outil Stable Diffusion qui ne représente que 3 % de femmes quand on lui demande de générer des images de juges alors qu’elles constituent 35 à 40 % des magistrats aux États-Unis. Cas plus connu, un outil de recrutement d’Amazon alimenté par IA favorisait systématiquement les CV masculins puisqu’il avait été entraîné sur des données historiques reflétant un modèle d’embauche dominé par les hommes.
Contre l’argument qui justifie cette sous-représentation dans les équipes par le fait que les filières scientifiques peinent à attirer les étudiantes, donc à produire des diplômées, l’étude rappelle qu’il existe des professions liées à l’IA qui ne sont pas purement techniques comme chef de projet IA, spécialiste éthique, product owner ou prompt engineer. Par ailleurs, de nombreuses start-up, comme Pigment, Lukango ou QuantCube, sont fondées ou dirigées par des femmes pouvant servir de « role models ».
Le risque d’un fossé qui se re-creuse
Pour les auteurs, la faible adoption de l’IA par les femmes est tout aussi problématique. « Si les femmes ne s’y impliquent pas activement, elles risquent d’être laissées pour compte, creusant encore davantage l’écart entre les genres dans le monde professionnel ». D’autant que les métiers susceptibles d’être automatisés par l’IA sont majoritairement exercés par les femmes note, de son côté, l’Organisation internationale du travail.
Face à ce constat, plusieurs initiatives tentent de promouvoir la place des femmes dans l’IA. JFD a lancé le programme « Women rAIsing » et le prix « Les Margaret » pour distinguer les talents féminins. Le do-tank Women in AI (WAI) France oeuvre aussi pour une IA moins genrée. Du côté des entreprises, La Poste avec son École Data & IA ou Carrefour avec Carrefour IA entendent booster les carrières de leurs salariées via la formation. Allianz France, L’Oréal ou Sanofi ont, eux, mis en place des chartes et des comités éthiques pour réduire les biais algorithmiques.
À LIRE AUSSI :

À LIRE AUSSI :
