La inteligencia artificial (IA) y la igualdad de género
El mundo tiene un problema de desigualdad de género y la inteligencia artificial (IA) refleja los prejuicios sexistas de nuestra sociedad.
Aunque a escala global cada año son más las mujeres que utilizan Internet, en los países de ingresos bajos solo el 20 por ciento se conecta a la red. La brecha digital de género provoca un déficit de datos que genera un sesgo de género en la IA.
La desigualdad de género puede perpetuarse, agravarse o reducirse en función de quién cree la IA y de los sesgos que se incorporen (o no) a la IA.

¿En qué consisten los sesgos de género en la IA?
Un estudio del Centro Berkeley Haas de Equidad, Género y Liderazgo que analizó 133 sistemas de IA de distintos sectores determinó que alrededor del 44 por ciento presentaba sesgos sexistas y un 25 por ciento mostraba sesgos sexistas y raciales a la vez.
Beyza Doğuç, una artista de Ankara, Turquía, se topó con los sesgos de género de una IA generativa durante una investigación para una novela, cuando le pidió al programa que escribiera una historia sobre dos personas, una dedicada a la medicina y otra a la enfermería. La IA generativa crea contenido nuevo (texto, imágenes, vídeos, etc.) a partir de datos y materiales similares con los que ha sido entrenada, normalmente en respuesta a las preguntas o peticiones de la persona que la usa.
La IA propuso un médico (masculino) y una enfermera (femenina). Doğuç siguió haciendo pruebas y la IA le presentó en todos los casos personajes con roles de género estereotipados, asociando unas habilidades y cualidades concretas con las mujeres y otras con los hombres. Cuando la artista le preguntó a la IA por sus sesgos de género, esta le explicó que se debían a los datos con los que había sido entrenada y, en concreto, a la “incrustación” léxica, es decir, a la forma en que se codifican ciertas palabras en el aprendizaje automático para expresar su significado y su relación con otras palabras, que es como las máquinas aprenden y trabajan con el lenguaje humano. Si se entrena a la IA con datos que asocian a las mujeres y a los hombres con destrezas o intereses específicos y distintos, el sistema generará contenido que reproduzca esos sesgos.
“La inteligencia artificial refleja los sesgos que están presentes en nuestra sociedad y que se manifiestan en los datos de entrenamiento de la IA”, explicó Doğuç en una entrevista con ONU Mujeres.
Las posturas frente al género de las soluciones basadas en la IA dependen de quién la desarrolla y de los datos que se usan para su entrenamiento
Sola Mahfouz, una investigadora especializada en computación cuántica de la Universidad de Tufts, está entusiasmada con la IA, pero también preocupada. “¿Es igualitaria? ¿Hasta qué punto reproduce las estructuras patriarcales de nuestra sociedad y los sesgos inherentes de quienes la han creado, que son mayoritariamente hombres?”, reflexiona.
Mahfouz nació en Afganistán y tuvo que dejar la escuela después de que los talibanes fueran a su casa y amenazaran a su familia. Finalmente consiguió escapar y emigró a los Estados Unidos en 2016 para ir a la universidad.
En un momento en el que las empresas buscan sin descanso más contenido para alimentar los sistemas de IA, un equipo de investigación del proyecto Epoch advierte de que las compañías tecnológicas podrían quedarse sin datos de calidad en 2026.
Natacha Sangwa es una estudiante de Rwanda que participó el año pasado en el primer campamento de programación organizado por la iniciativa African Girls Can Code (Las niñas africanas saben programar). “Me di cuenta de que la IA ha sido desarrollada fundamentalmente por hombres y de que los datos de entrenamiento se basan sobre todo en los hombres”, relata Sangwa, que conoció de primera mano cómo influye esta realidad en la experiencia de las mujeres con la tecnología.
“Cuando las mujeres usan sistemas asistidos por la IA para diagnosticar enfermedades, a menudo reciben respuestas incorrectas porque la IA no tiene referencias de síntomas que pueden presentarse de manera distinta en las mujeres”.
Si continúan las tendencias actuales, la tecnología y los servicios basados en la IA seguirán careciendo de perspectivas de género y raciales diversas, y ese déficit se traducirá en servicios de menor calidad y decisiones sesgadas sobre cuestiones laborales, de crédito o de atención sanitaria, por mencionar algunas.
¿Cómo evitar los sesgos de género en la IA?
Lo primero que hay que hacer para eliminar los sesgos sexistas de la IA es priorizar la igualdad de género como objetivo, desde las fases de conceptualización y diseño de los sistemas de IA. Eso incluye evaluar los datos para detectar faltas de representatividad, incluir datos que reflejen distintas experiencias de género y raciales y renovar los equipos que desarrollan la IA para hacerlos más diversos e inclusivos.
“Desarrollar la tecnología desde una única perspectiva es como mirar el mundo con un ojo cerrado”, coincide Mahfouz, quien está trabajando en un proyecto para crear una plataforma con IA que conectará a las mujeres afganas.
“Hacen falta más investigadoras en este campo. Las experiencias únicas que viven las mujeres pueden incidir enormemente en las bases teóricas de la tecnología y abrir la puerta a nuevas aplicaciones”, añade.
“Para evitar los sesgos de género en la IA, primero debemos poner fin a los prejuicios sexistas de nuestra sociedad”, afirma Doğuç desde Turquía.
En el desarrollo de la IA, es vital recurrir a diversos campos especializados, entre ellos el género, para que los sistemas de aprendizaje automático nos resulten más útiles y sirvan de apoyo a los esfuerzos por lograr un mundo más igualitario y sostenible.
En un sector que evoluciona tan rápido como el de la IA, la ausencia de datos, ountos de vista y toma de decisiones con perspectiva de género puede perpetuar una profunda desigualdad durante los próximos años.
El campo de la IA necesita más mujeres y eso requiere ampliar el acceso de las niñas y las mujeres a las profesiones, los estudios y los puestos de liderazgo relacionados con las disciplinas de la ciencia, la tecnología, la ingeniería y las matemáticas, así como la tecnología de la información y la comunicación.
Según un informe del Foro Económico Mundial de 2023, las mujeres constituyen sólo el 29 por ciento de la fuerza laboral en el mundo de la ciencia, la tecnología, la ingeniería y las matemáticas. Aunque ahora se gradúan y acceden a trabajos en estas áreas más mujeres que nunca, su presencia se concentra en los niveles laborales básicos y es menos probable que ocupen puestos directivos.

¿Cómo puede contribuir la gobernanza de la IA a acelerar el progreso hacia la igualdad de género?
La cooperación internacional sobre tecnología digital se ha centrado en aspectos técnicos y de infraestructura y en la economía digital, a menudo a costa de observar cómo influyen los avances tecnológicos en la sociedad y generan alteraciones radicales en todos sus niveles, especialmente para los grupos más vulnerables y excluidos históricamente. Hacen falta iniciativas de gobernanza mundial destinadas a abordar los retos y riesgos de la IA y a aprovechar todo su potencial para no dejar a nadie atrás.
“Ahora mismo, no existe ningún mecanismo que impida a las empresas desarrolladoras publicar sistemas de IA antes de comprobar su idoneidad o seguridad. Necesitamos un modelo de gobernanza mundial multisectorial que evite estas situaciones y tome medidas cuando los sistemas de IA presenten sesgos raciales o de género, refuercen los estereotipos dañinos o no cumplan con las normas sobre privacidad y seguridad”, aseguró Hélène Molinier, Asesora de ONU Mujeres en materia de Cooperación Digital para la Igualdad de Género en una entrevista con Devex.
En la arquitectura actual de la IA, los beneficios y los riesgos no se distribuyen de forma equitativa, dado que el poder está concentrado en manos de un puñado de compañías, Estados y personas que controlan el talento, los datos y los recursos de computación. Tampoco hay ningún mecanismo que estudie temas de mayor alcance, como las nuevas formas de vulnerabilidad social que genera la IA, los cambios disruptivos en los mercados laborales y la industria, la propensión a usar la tecnología emergente como una herramienta de opresión, la sostenibilidad de la cadena de suministro de la IA o las repercusiones de la IA para las generaciones futuras.
La negociación del Pacto Digital Mundial en 2024 ofrece una oportunidad única para conseguir un decidido impulso político y situar las perspectivas de género sobre la tecnología digital en el centro de un nuevo marco de gobernanza digital. Si no es así, corremos el riesgo de superponer la IA a las brechas de género ya existentes, e impedir que los sistemas de IA corrijan los prejuicios y la discriminación por razones de género o, lo que es peor, que los perpetúen y exacerben.
La propuesta de ONU Mujeres para el Pacto Digital Mundial aporta recomendaciones concretas para emplear la velocidad, la escala y el alcance de la transformación digital en beneficio del empoderamiento de las mujeres y niñas en toda su diversidad y para detonar transformaciones que pongan a los países en la vía de un futuro digital justo para todas las personas.