“El que idea la inteligencia artificial, la produce y la pone a nuestra disposición es un hombre. Y ¿a quién piden ellos las cosas? A una mujer”, reflexiona María Cano Bonilla, divulgadora de pensamiento e intersección de disciplinas y experta en ética e IA. “La IA es machista porque asocia a las mujeres unos determinados roles y a los hombres otros, y lo que hace es reproducir esos patrones sociales que están insertados en nuestro imaginario y después en nuestra vida. Y estos son todos los datos que se utilizan para entrenar a los algoritmos. La IA está generada en una desigualdad de base que ya existe en todo lo que consumimos”. Según un estudio de la publicación científica Nature existe un sesgo de género en nuestras búsquedas de Google: asocia a los hombres con empleos como cirujano o matemático, y a las mujeres con roles como peluqueras o enfermeras.
Consciente de este asunto, Audrey Azoulay, directora general de la UNESCO, presentó en marzo un informe sobre los estereotipos de género en la IA. En él se confirman nuestras sospechas: las mujeres están asociadas con los términos hogar, familia o niños, mientras que a los hombres con conceptos como negocios, salario y carrera. “Estas nuevas aplicaciones de IA tienen el poder de moldear sutilmente las percepciones de millones de personas, de modo que incluso pequeños sesgos de género en su contenido pueden amplificar significativamente las desigualdades en el mundo real. Nuestra organización llama a los gobiernos a desarrollar y hacer cumplir marcos regulatorios claros, y a las empresas privadas a llevar a cabo un seguimiento y una evaluación de los sesgos sistémicos”, añadió Azoulay.
Pero, ¿por qué se generan estos sesgos? María Cano Bonillo lo explica: “Un sesgo es un error que se produce en un sistema que selecciona unas respuestas frente a otras de una manera injustificada, creando resultados que son injustos. Partimos de la base de que la IA está entrenada con unos datos, y de la calidad y la cantidad de esos datos depende la precisión, lo que predice y la efectividad de los sistemas. Es posible que todas las personas que están involucradas en los procesos de IA no prevean cuáles son los efectos discriminatorios porque no comprenden los sistemas de inteligencia artificial, porque no reflexionan con una verdadera profundidad sobre los efectos de las consecuencias o porque no están cerca de los grupos de interés. Y esta es precisamente la cuestión, que no hay prácticamente mujeres involucradas en los procesos relativos a la inteligencia artificial. Y eso nos deja muy complicada la posibilidad de que la inteligencia artificial deje de tener sesgos”.