Hace unos días publicamos la entrada Tenemos que conseguir que las niñas quieran ser ingenieras, en la que analizábamos por qué, a nuestro entender, las niñas no quieren estudiar carreras tecnológicas y exponíamos la principal razón por la que creemos que es importante que haya mujeres ingenieras. Os la resumo brevemente: todas las predicciones apuntan a que la mayoría de los puestos de trabajo que se crearán en el futuro requerirán de conocimientos en ingeniería y tecnología. Además estos puestos se corresponderán con puestos de poder, por lo que, si no cambian las cosas, la desigualdad de género tenderá a acentuarse.
Sin esperar a que llegue ese futuro, ya hoy es muy importante que haya mujeres ingenieras que trabajen en el desarrollo de sistemas de Inteligencia Artificial (IA). Y es que si esto no ocurre nos exponemos a que, los cada vez más habituales sistemas automáticos de toma de decisiones o recomendadores basados en IA repliquen, cuando no amplifiquen, los sesgos de género existentes en la sociedad actual.
Insisto en que no estoy hablando de algo que puede ocurrir en el futuro. Recientemente se difundió la noticia de que la herramienta de Inteligencia Artificial utilizada por Amazon (desde 2014 hasta 2017) para procesar y evaluar los currícula de los aspirantes a un puesto de trabajo e identificar los mejores talentos, producía sesgos sistemáticos en contra de las mujeres. Otro ejemplo es el descubrimiento que hicieron en 2015 científicos de la Universidad Carnegie Mellon de que Google mostraba los anuncios de puestos de trabajo de alta cualificación más a hombres que a mujeres.
Los datos que alimentan el Machine Learning o Aprendizaje Automático
¿Y por qué ocurre esto? Como contamos en nuestra entrada sobre Inteligencia Artificial, los nuevos desarrollos de IA se basan en el Machine Learning o Aprendizaje Automático que permite que los ordenadores aprendan por sí mismos, sin haber sido programados de manera directa para ello, entrenándolos con miles de ejemplos con el fin de identificar patrones en los datos. Por ejemplo, un sistema de reconocimiento de imagen detecta cuándo en una imagen aparece un perro porque ha sido entrenado con millones de fotos de perros.
Actualmente la IA suele utilizar el Aprendizaje Automático con un propósito muy definido. Los datos de entrenamiento son elegidos para ese propósito y se procesan con métodos matemáticos para detectar patrones y desarrollar un modelo que permita hacer predicciones o recomendaciones sobre nuevos datos. Por ejemplo, la herramienta de reclutamiento de Amazon se entrenó con los currículums enviados por solicitantes durante un periodo de 10 años. Como la gran mayoría eran de hombres, fruto de la brecha de género en el sector tecnológico, el patrón o modelo identificado por la herramienta era el de un hombre con determinadas características, por tanto la controvertida herramienta penalizaba los currículums que incluían la palabra mujer (pincha aquí para más información).
El problema es que detectar estos sesgos en los sistemas en funcionamiento es muy complicado; ¿cómo puede un usuario ser consciente de que un algoritmo lo está tratando peor que a otro usuario? ¿O cómo puede una mujer darse cuenta de que ha sido descartada en un proceso de selección por ser mujer? ¿O que no se le ha mostrado un anuncio de empleo que nunca ha visto?
Cuando se utilizan datos históricos sin ningún tipo de filtro para entrenar sistemas de IA, estos sistemas pueden reafirmar o incluso aumentar el sesgo existente. Pero no sólo los datos, las decisiones de diseño de los sistemas de IA también pueden conducir a resultados sesgados. Por tanto, es esencial vigilar cómo diseñamos y entrenamos estos sistemas de aprendizaje automático, o veremos formas de sesgo arraigadas en la inteligencia artificial del futuro.
Cualquier responsable de producto sabe que, antes de lanzar cualquier nuevo producto al mercado, se prueba con usuarios reales. Pero antes de llegar a esta fase, los integrantes del equipo de desarrollo han hecho mil pruebas internas. Por tanto, si hay más mujeres en dicho equipo, seguro que se reducirá la posibilidad de que aparezcan sesgos de género en el funcionamiento del nuevo producto. ¿Se entiende ahora mejor por qué queremos que haya más niñas que quieran ser ingenieras?

Pues como comentábamos en la entrada pasada, que lo elijan ellas con libertad. Pero no se lo impongamos.
Si prefieren estudiar ADE, medicina o derecho en vez de ingeniería, ¿quienes somos nosotros para coaccionar su decisión?
Que la consecuencia es que las maquinas serán machungas, bueno, el derecho, la medicina y las empresas serán femeninas. No se puede tener todo en la vida
¡Ah! que estamos en el plano del deber ser y todo eso… me callo. Lo malo es que alguna radical que llegue al gobierno legisle para obligar a las niñas a ser ingenieras. Entonces estaremos frente a una feminazi.