¡Policía, alto, la inteligencia artificial lo ha reconocido!

sistemas

La frase del titular frase que pareciera sacada de una serie de ciencia ficción, dentro de poco podría ser una realidad. Según el Ministerio del interior, la Policía Nacional se encuentra en fase de alimentación de las bases de datos, para instaurar un sistema de reconocimiento facial como un instrumento de ayuda a las investigaciones judiciales.

Cabis es el sistema de identificación biométrica que ha escogido España, y que es vendido al mundo a través de la compañía Francesa Thales (la misma que vende armas a países en dónde no reinan los derechos humanos) y que trabaja con inteligencia artificial.

Según la web del proveedor, este sistema «permite realizar una variedad de tareas para procesar, editar, buscar, recuperar y almacenar imágenes de huellas dactilares, huellas de la palma, rostro e iris y registros de individuos».

Y aunque se ha dicho que este sistema únicamente se utilizará con fotografías o registros de personas que ya hayan sido arrestadas, y que en ningún caso se cotejaran con fotos de civiles, la reciente historia de esta tecnología nos muestra que las cosas nunca son como se plantean.

Veamos algunas razones por las cuales no podemos perder de vista al reconocimiento facial. Cualquier sistema basado en algoritmos, necesita de muchos datos para ser eficiente. Eso significa que no sólo se puede «entrenar» con fotos de delincuentes, sino que tendrán que recurrir a otras bases de datos para que el sistema sea robusto. ¿De dónde sacaran esos datos?

El mismo sistema que se utilizará en España, lo adquirió el ayuntamiento de Niza (Francia) después de los atentados en el 2016. Y a pesar de que advirtieron que éste sistema sólo se utilizaría para reconocer delincuentes, pues resulta que para que esto fuera así, lo tuvieron que implantar en sitios de acceso masivo de personas como el transporte público, aeropuertos, estadios de futbol, etc. O sea, para capturar un delincuente, debe analizar la cara de miles de personas al día. Y como estos sistemas no son infalibles, ya se han presentado casos de falsos positivos.

El pasado junio, la multinacional Microsoft anunció que no vendería más su propio software de reconocimiento facial. La empresa que lleva muchos años y dinero invertido en este tema, reconoció que este sistema presenta muchos dilemas éticos y tecnológicos que aún están por resolver, y que podrían representar un peligro si caen en las manos equivocadas.

Amazon también tuvo su propio sistema de reconocimiento facial, el cual ya estaba en pruebas con el sistema judicial americano. Luego de muchas protestas, por qué el sistema presentaba una serie de sesgos con las personas de raza negra o de color, el proyecto se canceló hasta nueva orden en mayo del año pasado.

En Londres, la Policía también ha instalado un sistema parecido en las calles después de la serie de atentados que han venido sufriendo en los últimos años. Hoy, muchas asociaciones denuncian como cada día cientos de personas son detenidas (momentáneamente) de manera equivocada por fallos en el sistema (sesgos).

El reconocimiento facial hace parte de la lista de tecnologías de «alto riesgo» señaladas por la Comisión Europea, habrá que demostrar por qué justamente este sistema no tendrá un uso discriminatorio en la población, que podría terminar en la violación a la dignidad de las personas. Estos sistemas deben aún amoldarse dentro del marco de la ley de orgánica de protección de datos.

Y aunque estos sistemas se quieren vender como herramientas de seguridad para el ciudadano, justamente esta tecnología puede ser un arma de doble filo que puede terminar poniendo en peligro nuestros derechos más fundamentales como la privacidad. Como vemos, el Big Brother avanza a pasos agigantados, ¿estaremos aún a tiempo para detenerlo?

Lo último en Opinión

Últimas noticias