Alors qu’aujourd’hui, 40% des métiers sont exposés à l’Intelligence Artificielle et que son utilisation se démocratise à grande vitesse, il convient de se poser la question de la supposée neutralité de l’IA : l’IA est-elle vraiment dépourvue de biais ? Une étude récente du Berkeley Haas Center for Equity, Gender and Leadership a analysé 133 systèmes d’Intelligence Artificielle dans différents secteurs d’activité. Résultat : 44% de ce panel présentent des stéréotypes sexistes. Alors comment l’expliquer ? Décryptage.
D’où viennent ces biais ?
Comme nous l’explique Zinnya del Villar, experte en IA Responsable au sein de ONU Femmes, l’IA, c’est avant tout une question de données. Pour développer des modèles d’apprentissage automatiques par exemple ou encore des outils d’IA génératives, on donne à l’algorithme des données sur lesquels il peut s’entraîner. Or, les données sur lesquelles sont entraînées les IA sont principalement des données basées sur des hommes. Ou plutôt, sur toutes les données amassées il existe de réels angles morts sur certains segments de la société : les femmes, les personnes racisées (selon l’étude du Berkeley Haas Center, 25% des IA étudiées comportaient des stéréotypes à la fois sexistes et racistes).
De plus le manque de diversité dans les métiers de la tech et particulièrement dans l’IA y est aussi pour quelque chose. En effet, selon une étude, 88% des algorithmes IA sont développés par des hommes et les femmes représentent seulement 30% des personnes qui travaillent dans le domaine de l’IA. Les personnes aujourd’hui employées à développer et maintenir des systèmes IA sont de manière prépondérante, des hommes blancs, universitaires. Or, l’influence humaine peut difficilement être éliminée des données, puisque dans la plupart des cas, ce sont des humains (et donc des hommes) qui décident comment les données doivent être collectées puis comment elles seront catégorisées et modérées.
Ensuite, lorsque l’IA apprend à faire sens du langage humain, elle apprend à rendre compte de la signification des mots mais aussi à comprendre quels mots sont souvent associés ensemble. Or, cette méthode d’apprentissage constitue un terreau fertile pour la perpétuation de biais sexistes et de processus d’essentialisation. En clair, si vous demandez à une IA de vous générer un médecin et un infirmier, elle aura tendance à générer un médecin homme et une infirmière femme.
Enfin, Hélène Molinier, conseillère pour la coopération en matière d’égalité entre les sexes dans le numériques auprès d’ONU Femmes, rappelle qu’il n’existe aujourd’hui, aucun système pour encadrer ou réguler le marché de l’IA. Rien n’empêche la création et l’utilisation d’IA qui reproduisent des stéréotypes sexistes et/ou racistes ou qui ne respectent pas les normes de confidentialité et de sécurité. Quant à la prise en compte des nouvelles formes de vulnérabilité sociale engendrées par l’IA, elle est pour l’instant embryonnaire.
Des IA biaisées, des conséquences pour l’égalité femme-hommes :
Avoir des algorithmes biaisés n’est pas neutre. Selon Genevieve Smith and Ishita Rustagi, les autrices de l’étude du Berkeley Haas Center, « L’Intelligence Artificielle permet d’automatiser des jugements qui étaient précédemment émis par des individus ou groupes d’individus ». Les IA sont des miroirs de la société : elles intègrent et automatisent les biais qui y sévissent, et tendent ainsi à les amplifier.
On observe cette tendance dans plusieurs domaines, notamment celui de la santé. Les IA étant généralement entraînées sur des symptômes masculins, elles tendent à proposer de mauvais diagnostics et traitements pour les femmes. Par ailleurs, Zinnya de Villar souligne également que les assistants vocaux qui utilisent souvent des voix féminines tendent à renforcer l’association entre femmes et travail de soin et de service. L’IA peut aussi limiter les possibilités professionnelles des femmes dans les domaines de prise de décision, l’approbation de prêts, le recrutement ou encore les décisions judicaires.[Utilisate1] En 2018 par exemple, Amazon a désactivé un outil de recrutement par IA qui favorisait des CV d’hommes. En effet, si les données avec lesquelles travaille l’IA sont biaisées, elle va avoir tendance à associer hommes et femmes à certains rôles et pas d’autres (on peut reprendre l’exemple du médecin et de l’infirmière).
Mais ce n’est pas tout. L’IA pourrait également constituer un frein pour l’employabilité des femmes. Elle pourrait entraîner une restructuration importante des métiers à fort potentiel d’automatisation, notamment les fonctions administratives et d’assistanat. Si les outils d’IA peuvent être des tremplins en termes de productivité et parfois de carrières pour ceux qui les utilisent, ils tendent également à creuser l’écart et à marginaliser ceux qui ne les utilisent pas. Or, les femmes utilisent environ 20% de moins les outils IA que les hommes, à la fois par manque de temps et de formation mais aussi par autocensure lié à un sentiment d’illégitimité pour tout ce qui touche aux nouvelles technologies.
Comment peut-on faire de l’IA, un vecteur de l’égalité professionnelle ?
L’IA est malléable. Elle a donc la capacité d’être une véritable béquille dans la réduction des inégalités, en offrant aux femmes un accès à de nouvelles ressources et opportunités par l’accès à l’information et à la formation. Mais pour ce faire, il faut prendre en compte l’égalité des sexes dès la conception et la construction des systèmes d’IA.
Cela signifie activement sélectionner des données qui prennent en compte la diversité des milieux sociaux, des cultures, des genres, des rôles. Cela passe aussi par le fait de prendre le problème à la racine et diversifier les équipes de développement des systèmes IA pour les rendre plus inclusives. En effet, si 73% des dirigeants estiment qu’il est important d’avoir plus de femmes dans ce domaine, seuls 33% d’entre eux ont une femme en poste à la tête des décisions stratégiques sur le sujet[Utilisate2] . Il est également essentiel de faire appel à de l’expertise en matière de genre au moment de la conception pour internaliser dans le processus de conception une vigilance aux biais sexistes.
Enfin, il est crucial de démocratiser auprès des femmes la formation et l’utilisation des outils IA pour qu’elles puissent pleinement profiter des opportunités de productivité et d’apprentissage qu’ils offrent, et non être victimes d’une marginalisation croissante.