España
Ministerio de Igualdad

Igualdad ataca a la Policía porque «su inteligencia artificial no tiene en cuenta los dialectos»

El Ministerio de Igualdad sigue diseccionando todos los ámbitos de la sociedad. Aplica su máxima de que el feminismo lo cambia todo y ahora pone el foco en los sistemas de la Policía para detectar denuncias falsas en casos de robos. Aseguran que el Ministerio del Interior aplica una tecnología de inteligencia artificial (IA) que no ha sido lo suficientemente entrenada para entender todos los dialectos que se hablan en España. Apuntan a graves discriminaciones que rompen el principio de igualdad.

«El sistema VeriPol fue entrenado únicamente con 1.122 denuncias de varias comisarías de España, lo cual no es suficiente para entrenar una tecnología de la IA que se caracteriza por precisar de grandes cantidades de datos. Con una base de datos tan pequeña, es funcionalmente imposible entrenar al sistema con los diferentes dialectos existentes en España», exponen con dureza desde Igualdad.

Sin dar opción al Ministerio del Interior, liderado por Fernando Grande-Marlaska, de hacer alegaciones, el equipo de Irene Montero arremete contra este sistema de la Policía Nacional que sirve para «la detección automática de denuncias falsas de robos con violencia, desarrollado por la Policía Nacional española y que está desplegado en todas las comisarías españolas desde el 2018». Enlazan una nota de prensa de Moncloa detallando este avance.

Igualdad concluye que «VeriPol usa el procesamiento de lenguaje natural para analizar el resumen que hace el policía de la denuncia de robo. En base al texto redactado por el policía, el sistema analiza expresiones y palabras clave y calcula probabilísticamente la veracidad del texto. El sistema es una forma de polígrafo que no evalúa a la persona denunciante, sino al resumen que hace el policía de la declaración de esa persona».

«La lista de sistemas de automatización compleja es tan extensa como heterogénea. Valgan los ejemplos expuestos como pequeño muestrario de la polifonía de causas que generan discriminación en la aplicación de dichos sistemas», zanjan.

Por otra parte, hablando en general de «sistemas que se basan en ideas racistas y patriarcales, como el querer calcular el grado de agresividad de una persona en base a su fisonomía. Este tipo de sistemas ya es conceptualmente ilegítimo y siempre discriminará».

A la situación en la Policía se agregan ejemplos de supuestos casos de machismo, racismo y otras discriminaciones en campos tan diversos como la sanidad, la selección de personal, la movilidad –donde se carga contra los semáforos por tardar en ponerse en verde para el peatón– o, entre otros, la arquitectura.

Documento

El informe concluye con una serie de recomendaciones que pasan por aplicar el feminismo en el desarrollo de algoritmos. Los autores del texto piden que los avances tecnológicos vayan encaminados a aplicar el ideario morado más allá de hacer la vida más cómoda a todos los ciudadanos. Piden desarrollar programas para luchar contra el machismo.

Sostienen, igualmente, que «debe priorizarse el uso alternativo de tecnologías menos complejas» y «priorizarse el uso alternativo de tecnologías con enfoques más locales».

«Una agenda con una visión de justicia de género debe ir más allá de la mirada reactiva y ofrecer una visión social que centre intereses e ideas feministas interseccionales», indican. Consideran que la regulación actual son «medidas que resultan parcialmente cosméticas o quedan reducidas a meras recomendaciones y autoevaluaciones en manos de las mismas compañías».