Ministerio de Igualdad

Montero declara la guerra al algoritmo: «Oscurece dinámicas machistas con lenguaje matemático»

Irene Montero Vox
Irene Montero.

El Ministerio de Igualdad ha lanzado un nuevo informe para criticar los algoritmos y la inteligencia artificial por conductas machistas. El departamento de Irene Montero sostiene que las últimas tecnologías «oscurecen dinámicas discriminatorias mediante el uso de un lenguaje matemático». «La regulación para que los algoritmos sean feministas son recomendaciones cosméticas. La discriminación de género se trata como una mera cuestión estadística. Las recomendaciones actuales no cuestionan la lógica ni las reglas del juego», denuncia.

Así consta en el documento titulado Informe Preliminar con Perspectiva Interseccional sobre Sesgos de Género en la Inteligencia Artificial. El objetivo de este encargo, que se suma a otras actuaciones del Gobierno por este mismo tema, es «promover el conocimiento y difusión sobre la presencia de las mujeres en la sociedad de la información».

«La inteligencia artificial (IA) es una tecnología de automatización y organización de procesos en auge, de gran impacto social. Sin embargo, investigaciones empíricas e informes académicos de los últimos cinco años han documentado numerosos casos de discriminación interseccional de género en la IA», asegura el informe oficial que firma Lorena Jaume-Palasi en un documento de 42 páginas. «No se puede separar la tecnología del contexto social que la produce y reducir su evaluación y prevención de la discriminación de género a una mera cuestión estadística o matemática», insisten, señalando directamente a varios gigantes tecnológicos.

Entre las conclusiones del informe se citan ejemplos de «impacto discriminatorio de género» entre los que está «la temperatura de un edificio inteligente o los procesos de selección de personal». Sostiene que estas entrevistas se automatizan con programas de IA que «tienen al hombre blanco de mediana edad como estándar». «El resto se convierte en una desviación estadística dentro del sistema, produciendo un impacto discriminatorio de género, especialmente en intersección con categorizaciones raciales, de edad, etc.», teoriza.

La tecnología, dicen, tiene «una mirada patriarcal» que comete «racismo» y otros «ismos» como «islamofobia, transfobia, gordofobia, edadismo», entre otras. También se afea que se apoyan en la «binariedad de género», es decir, la idea que critica Igualdad de que sólo hay hombres y mujeres en la sociedad.

Naturaleza

Por otra parte, apunta que el impacto medioambiental «también debe formar parte de los criterios de evaluación del impacto de discriminación de género en sistemas algorítmicos». Por ejemplo, asegura que «el continente europeo depende del importe de materias primas críticas, ubicadas en su mayoría en otros continentes, para la manufacturación de estas tecnologías, siendo un vivo ejemplo de tecnologías que trascienden fronteras». Califica de «clave» que los reglamentos nacionales e internacionales, desarrollen «mecanismos que protejan del impacto discriminatorio de género producido por consecuencias medioambientales de la Inteligencia Artificial».

Inteligencia Artificial
Inteligencia Artificial

Dependencia

También traslada una visión muy crítica con las tecnologías. «Toda creación de infraestructuras para sistemas de automatización complejas es a su vez la creación de una dependencia a plazo medio y largo», expone el informe.

«Una agenda con una visión de justicia de género debe ir más allá de la mirada reactiva y ofrecer una visión social que centre intereses e ideas feministas. Si bien ya se dispone de regulación al respecto, dichas medidas resultan parcialmente cosméticas o quedan reducidas a meras recomendaciones y autoevaluaciones en manos de las mismas compañías que desarrollan sistemas algorítmicos», añade.

En la última década, recuerdan, se ha producido un giro regulatorio: antes se legislaba de manera sectorial (pensiones, sector bancario, energía, transporte) y ahora se persigue una regulación más transversal (horizontal), como es el caso del Reglamento General de Protección de Datos, la Ley de Servicios Digitales y la Ley de Mercados Digitales -o el proyecto de ley Artificial Intelligence Act-. Afea Podemos que de esta forma «desaparece el contexto y es el contexto el que ayuda a desarrollar principios éticos, métodos de evaluación y medidas concretas».

Lo último en España

Últimas noticias