Intelligence artificielle et égalité des sexes
Le monde fait face à un défi majeur en matière d'égalité des sexes, et l'intelligence artificielle (IA) reproduit les stéréotypes sexistes de notre société.
Bien que de plus en plus de femmes dans le monde accèdent à Internet chaque année, seulement 20 % d'entre elles sont connectées dans les pays à faible revenu. La fracture numérique entre les hommes et les femmes entraîne des lacunes en matière de données, ce qui transparaît dans les stéréotypes sexistes de l'IA.
Le profil des personnes qui créent l'IA et les types de stéréotypes qui sont intégrés (ou non) dans les données de l'IA peuvent contribuer à perpétuer, aggraver ou réduire les inégalités entre les sexes.

En quoi consistent les stéréotypes sexistes dans l'IA ?
Une étude du Berkeley Haas Center for Equity, Gender and Leadership a analysé 133 systèmes d'IA dans différents secteurs d'activité et a révélé qu'environ 44 % d'entre eux présentaient des stéréotypes sexistes et 25 % comportaient des stéréotypes à la fois sexistes et racistes.
Beyza Doğuç, une artiste d'Ankara, en Turquie, a pu observer ces stéréotypes sexistes lorsqu'elle effectuait des recherches pour un roman et a demandé à l'IA générative d'écrire une histoire sur un médecin et un membre du personnel infirmier. L'IA générative crée de nouveaux contenus (textes, images, vidéos, etc.) en s'inspirant de contenus et de données similaires sur lesquels elle a été formée, souvent en réponse à des questions ou à des instructions d'un utilisateur.
L'IA a ainsi fait du médecin un homme et du membre du personnel infirmier une femme. Beyza Doğuç a continué à lui donner d'autres instructions, et l'IA a systématiquement attribué des rôles stéréotypés aux personnages et a associé certaines qualités et compétences à des personnages masculins ou féminins. Lorsqu'elle a interrogé l'IA sur les stéréotypes sexistes qu'elle véhiculait, l'IA a expliqué que cela était dû aux données sur lesquelles elle avait été entraînée et, plus précisément, à l'« intégration des mots », c'est-à-dire la manière dont certains mots sont encodés dans l'apprentissage automatique pour rendre compte de leur signification et de leur association avec d'autres mots – méthode permettant aux machines d'apprendre et de travailler avec le langage humain. Si l'IA est entraînée sur des données qui associent les femmes et les hommes à des compétences ou des intérêts différents et spécifiques, elle générera un contenu reflétant ce stéréotype.
« L'intelligence artificielle reproduit les préjugés qui existent dans notre société et se manifestent dans les données d'entraînement de l'IA », a estimé Beyza Doğuç lors d'un entretien accordé récemment à ONU Femmes.
Le profil des personnes qui développent l'IA et le type de données sur lesquelles elle est entraînée ont des implications en termes de genre pour les solutions basées sur l'IA.
Sola Mahfouz, chercheuse en informatique quantique à l'Université de Tufts, se montre à la fois enthousiaste et préoccupée par l'IA. « Est-elle équitable ? Dans quelle mesure reproduit-elle les structures patriarcales de notre société et les préjugés propres à ses créateurs majoritairement masculins ? », demande-t-elle.
Mme Mahfouz est née en Afghanistan où elle a été contrainte de quitter l'école lorsque les talibans sont venus menacer sa famille. Elle a finalement fui l'Afghanistan et immigré aux États-Unis en 2016 pour poursuivre ses études.
Alors que les entreprises se démènent pour acquérir plus de données afin d’alimenter les systèmes d'IA, des chercheurs d'Epoch affirment que, d'ici à 2026, les entreprises technologiques pourraient être à court de données de haute qualité utilisées par l'IA.
Natacha Sangwa est une étudiante rwandaise qui a participé au premier atelier de codage organisé dans le cadre de l'initiative « African Girls Can Code » l'année dernière. « J'ai remarqué que [l'IA] est principalement développée par des hommes et entraînée sur des ensembles de données qui sont essentiellement basés sur des hommes », a expliqué Natacha Sangwa, qui a pu constater directement les répercussions de cette situation sur l'expérience des femmes dans le domaine de la technologie.
« Lorsque les femmes utilisent certains systèmes alimentés par l'IA pour diagnostiquer des maladies, elles reçoivent souvent des réponses inexactes, car l'IA ne connaît pas les symptômes qui peuvent apparaître différemment chez les femmes. »
Si les tendances actuelles persistent, les technologies et les services alimentés par l'IA continueront de pâtir d’un manque de perspectives diversifiées en matière de genre et de race, et cet écart se traduira par une moindre qualité des services, des décisions biaisées en matière d'emploi, de crédit, de soins de santé, etc.
Comment éviter les stéréotypes sexistes dans l'IA ?
Pour éliminer les stéréotypes sexistes, il faut commencer par faire de l'égalité des sexes une priorité lors de la conception et de la construction des systèmes d'IA. Cela exige notamment d'évaluer les données pour vérifier qu'elles ne génèrent pas une représentation biaisée, de fournir des données reflétant de la diversité des genres et des races, et de remanier les équipes chargées de développer l'IA pour les rendre plus diversifiées et plus inclusives.
« Lorsque la technologie est développée en adoptant une seule perspective, c'est comme si l'on regardait le monde en étant à moitié aveugle », explique Mme Mahfouz. Elle travaille actuellement sur un projet visant à créer une plateforme alimentée par l'IA qui permettrait aux femmes afghanes d'entrer en contact les unes avec les autres.
« Il faut davantage de chercheuses sur le terrain. Les expériences uniques vécues par les femmes peuvent en effet profondément orienter les fondements théoriques de la technologie. Elles peuvent également ouvrir la voie à de nouvelles applications technologiques », a-t-elle ajouté.
« Pour prévenir les préjugés sexistes dans l'IA, nous devons d'abord nous attaquer aux préjugés sexistes dans notre société », a déclaré la chercheuse turque Beyza Doğuç.
Il est essentiel de faire appel à différents domaines d'expertise lors du développement de l'IA, y compris l'expertise en matière de genre, afin que les systèmes d'apprentissage automatique puissent mieux nous servir et soutenir la volonté d'un monde plus égalitaire et plus durable.
Dans un secteur de l'IA en constante progression, l'absence de perspectives, de données et de prises de décision tenant compte de l'égalité des sexes risque de perpétuer de profondes inégalités pour les années à venir.
Le domaine de l'IA a besoin de plus de femmes, ce qui implique de faciliter et de renforcer le leadership des filles et des femmes et leur accès à l'enseignement et aux carrières dans les STIM et les TIC.
D'après le Forum économique mondial, les femmes ne représentaient que 29 % de l'ensemble des professionnels dans les domaines des sciences, de la technologie, de l'ingénierie et des mathématiques (STIM) en 2023. Bien que les femmes soient plus nombreuses que jamais à obtenir un diplôme et à occuper un emploi dans ce domaine, elles sont généralement cantonnées à des emplois de niveau débutant et sont moins susceptibles d'occuper des postes de direction.

Comment la gouvernance de l'IA peut-elle contribuer à accélérer les progrès vers l'égalité des sexes ?
Les initiatives de coopération internationale en matière de technologie numérique se sont concentrées sur les questions techniques et infrastructurelles, ainsi que sur l'économie numérique, souvent en négligeant l'impact social des technologies et les perturbations qu'elles génèrent à tous les niveaux, en particulier pour les personnes les plus vulnérables et historiquement exclues. Il existe un déficit de gouvernance mondiale pour relever les défis et les risques de l'IA et pour exploiter son potentiel afin de ne laisser personne de côté.
« À l'heure actuelle, aucun mécanisme n’a été établi pour empêcher les développeurs de mettre sur le marché des systèmes d'IA avant qu'ils ne soient prêts et sûrs. Il faut mettre en place un modèle mondial de gouvernance multipartite afin de prévenir et de remédier aux situations dans lesquelles les systèmes d'IA reproduisent des préjugés sexistes ou racistes, renforcent des stéréotypes nuisibles ou ne respectent pas les normes de confidentialité et de sécurité », déclare Hélène Molinier, conseillère pour la coopération en matière d'égalité entre les sexes dans le numérique auprès d’ONU Femmes, dans un entretien accordé récemment à Devex.
Dans l'architecture actuelle de l'IA, les avantages et les risques ne sont pas équitablement répartis, le pouvoir étant concentré entre les mains de quelques entreprises, États et individus qui contrôlent les talents, les données et les ressources informatiques. Il n'existe pas non plus de mécanisme pour prendre en compte des considérations plus générales, comme les nouvelles formes de vulnérabilité sociale générées par l'IA, la perturbation des industries et des marchés du travail, la propension des technologies émergentes à être utilisées comme outil d'oppression, la durabilité de la chaîne d'approvisionnement de l'IA ou l'impact de l'IA sur les générations futures.
En 2024, la négociation du Pacte mondial pour le numérique (PMN) offre l'occasion unique de créer une dynamique politique et de placer les perspectives d'égalité des sexes sur la technologie numérique au cœur d'un nouveau cadre de gouvernance numérique. Sans cela, le risque est de superposer l'IA aux inégalités existant déjà entre les sexes, ce qui aura pour effet de maintenir les discriminations et les préjudices fondés sur le genre – voire de les amplifier et de les perpétuer par le biais des systèmes d'IA.
Le document d’orientation d'ONU Femmes sur le PMN formule des recommandations concrètes pour exploiter la vitesse, l'échelle et l'ampleur de la transformation numérique afin d'autonomiser les femmes et les filles dans toute leur diversité, et pour engager des transformations qui placeraient les pays sur la voie d'un avenir numérique équitable pour tous.