España
Podemos

Una guía de Montero critica aplicaciones como Alexa o Siri: «Se basan en estereotipos de género»

  • Luz Sela
  • Periodista política. En OKDIARIO desde 2016. Cubriendo la información del Congreso de los Diputados. Licenciada en Periodismo por la Universidad de Santiago de Compostela. Antes, en COPE, ABC Punto Radio y Libertad Digital.

Una guía editada por el Ministerio de Igualdad que dirige Irene Montero y el Instituto de la Mujer -‘Mujeres y digitalización. De las brechas a los algoritmos’- considera que «asistentes» virtuales tan populares como Alexa o Siri perpetúan roles de género.

El trabajo, muy detallado, analiza la presencia de la mujer en entornos digitales. Y en este sentido, señala que «la mayor parte de estos asistentes virtuales sitúan de manera indirecta a las mujeres en puestos secundarios, ligados al rol tradicional de género asociado a tareas como las de prestar ayuda y asistencia a otras personas».

El documento, que ha sido difundido en los últimos días desde el Ministerio, alerta sobre los «sesgos de género en sistemas de reconocimiento de imagen y voz».

En este sentido, se indica que «muchos de los algoritmos que se utilizan en aplicaciones de reconocimiento de imagen o voz se basan en estereotipos de género a partir de la apariencia física de las personas que se suponen usuarias de las mismas».

«Dichos algoritmos reproducen falsas creencias en torno a cómo deberían ser los atributos físicos que definen a las personas según su sexo biológico, su procedencia étnica o cultural, o su orientación sexual. A pesar de que los estudios apuntan a este tipo de problemas, parece que el patrón cultural dominante corresponde a un hombre blanco perteneciente a un grupo acomodado», añade. Por ello, «es a él a quien se tiene como público objetivo a la hora de diseñar y desarrollar herramientas de inteligencia artificial».

El trabajo, muy detallado, incluye referencias a distintos trabajos y autores, que señalan que «ello es así en gran medida porque es el reflejo de quienes las diseñan, que lo hacen de manera acorde con sus propias necesidades de productos y servicios». Por ello, «en este tipo de entornos masculinizados son frecuentes los casos de discriminación, exclusión y acoso sexual de mujeres y personas pertenecientes a minorías».

El trabajo cita un estudio que observó «que asistentes de voz como Alexa, Siri o Cortana, al utilizar atributos femeninos, representaban la identidad de género femenina y, por ende, estaban diseñados para llevar a cabo tareas administrativas básicas (ligadas a puestos de trabajo con una alta presencia femenina) como contestar emails, leer y enviar mensajes o planificar agendas en el calendario».

«Abusos»

Se destaca también que «para algunos usuarios, las voces masculinas se consideran más fiables que las femeninas para transmitir instrucciones de navegación». O que «estudios recientes mencionan los abusos a los que son sometidos algunos de los asistentes virtuales con identidad femenina por su voz y su forma de responder a las preguntas».

«A través de entrenamiento se dota a estas herramientas digitales de estrategias para responder de manera asertiva ante el acoso que algunos usuarios llevan a cabo a través de comentarios abusivos y sexistas», se recoge.

En este contexto, se indica por ejemplo que «los estudios y quejas de personas usuarias al respecto han propiciado que algunas compañías incorporen la imagen de un hombre en su sistema de asistencia virtual. Por ejemplo, Renfe en la actualidad tiene la imagen de un hombre –Martín- en el asistente virtual de su página web, pero anteriormente el asistente virtual representaba a una mujer que respondía al nombre de Irene».

En otro apartado, se abordan los «sesgos de género de los buscadores de Internet». Aquí, se destaca, remitiéndose también a otro estudio, que «Google Maps constituye otro buen ejemplo de cómo se han tomado como referencia los estándares masculinos (no los femeninos) en términos de la magnitud de zancada para determinar el tiempo que se tarda en llegar a un destino concreto, que en términos reales es más corto para el caso de los hombres que el de las mujeres».

Ejemplos que llevan a concluir, en el informe del Ministerio, que «es indispensable promover y apoyar iniciativas para que las mujeres adopten un papel más activo y visible en el desarrollo y creación de algoritmos, como garantía de la eliminación o no aparición de sesgos de género en esos ámbitos».

«Los escritores-guionistas que programan a los distintos asistentes de voz para que actualicen las respuestas a sus usuarios juegan un papel crucial a la hora de introducir elementos que eviten reproducir los sesgos de género y que, en caso de producirse, los modifiquen», se avisa.

Otras guías

Recientemente, el Ministerio de Igualdad publicó otra guía, ésta sobre adicciones en mujeres, en la que se afirma que la desigualdad es el detonante que provoca que el sexo femenino consuma alcohol, tabaco y drogas.

Bajo el titulo ‘¿Adicciones para qué?’ se sostiene que «una gran parte de las mujeres hemos sido educadas para dedicarnos a otras personas, relegando nuestras propias necesidades», señalando que la presión social es mayor sobre ellas que sobre los hombres y el consumo en las primeras está más penalizado de lo que está para ellos.

Uno de los motivos que el Ministerio de Igualdad considera precursor del consumo en mujeres es el entorno laboral. En la guía puede leerse que «debido a la precariedad o al futuro incierto» o «debido a la frustración o insatisfacción en la función o el trato», las mujeres hacen uso abusivo en muchas ocasiones de ciertas sustancias.