Ciencia
Tecnología

¿Qué tan preciso es el reconocimiento facial?

El reconocimiento facial está cada vez más presente en nuestras vidas: muchos de nosotros lo usamos varias veces al día para desbloquear la pantalla de nuestro smartphone, mientras que las grandes empresas lo usan para identificar a personas específicas, por ejemplo a empleados de nivel superior para acceder a sus instalaciones, pero ¿Qué tan preciso es el reconocimiento facial? ¿Cuándo puede fallar? La respuesta a continuación.

¿Qué tan preciso es el reconocimiento facial?

A pesar de los avances de los últimos años en lo que respecta al reconocimiento facial, los algoritmos de aprendizaje automático aún no son precisos y, como explica un artículo publicado en la versión española de The Conversation, pueden por ejemplo discriminar por género y raza o tener dificultades para reconocer a los transexuales.

Pero siendo una tecnología prácticamente reciente y sobre todo, muy probada,  ¿cómo es que a veces da esos fallos o sencillamente no es capaz de reconocer a la persona en cuestión? Para entenderlo tenemos que hablar de los algoritmos de aprendizaje automático que si bien siguen modelos de evaluación y / o interpretación construidos gracias al procesamiento de grandes cantidades de datos (por ejemplo, imágenes) puede que en ocasiones fallen por la ausencia de matices dentro de esos datos.

Por eso es fundamental «entrenar» las máquinas con datos lo más representativos posible de cada matiz humano: cuando esto no sucede, y se excluyen determinadas categorías de personas, la IA devuelve resultados inexactos, reflejando las inexactitudes que hemos cometido.

El fallo de Kodak

Un ejemplo de cómo una recopilación de datos no representativos de toda la realidad puede afectar negativamente el funcionamiento de un producto nos llega directamente desde el siglo pasado: entre 1940 y 1990 Kodak y Polaroid solo usaban modelos blancos para calibrar sus productos, con los consiguientes problemas de luz y contraste en la reproducción de video de sujetos de piel oscura.

Nada nuevo

A pesar de los ilustres ejemplos de Kodak y Polaroid, parece que los gigantes tecnológicos actuales no han aprendido nada de los errores del pasado: un estudio reciente de Gender Shades reveló una falla en el sistema de clasificación comercial de Microsoft, IBM y Face ++, encontrando que las mujeres de piel más oscura eran propensas a más clasificaciones erróneas que el resto de la gente. La popular plataforma de comunicación Zoom también cayó en la trampa de la discriminación: varios usuarios negros se quejaron de que, al activar el fondo virtual, su rostro no era reconocido y desaparecía de la pantalla.

¿Hombre, mujer, o…?

También se cuestiona el hecho de que los algoritmos de reconocimiento facial no hayan sido todavía desarrollados (o «entrenados») en la necesidad de reconocer a las personas sin una sexualidad definida, como los transexuales (especialmente en el período de transición) o las personas con identidades no binarias, es decir, que no corresponden estricta y completamente al género masculino o femenino.

Un estudio analizó cuatro servicios comerciales de reconocimiento facial (Amazon Rekognition, Clarifai, IBM Watson Visual Recognition y Microsoft Azure) y calculó la precisión de los resultados de clasificación de género de 2.450 imágenes. Si para hombres y mujeres el porcentaje de precisión se acercaba al 100%, para las mujeres y los hombres trans se redujo al 87% y al 70% respectivamente, y luego cayó al 0% en el caso de personas asexuales, de género queer o no binarias .

La conclusión es que si bien es útil subrayar los errores de programación más comunes que afligen a los sistemas de inteligencia artificial, sobre todo para tratar de mejorar su precisión y evitar la discriminación de género y raza, es importante tener siempre claro las innumerables dificultades de programar un máquina para reconocer la diversidad con respecto al pensamiento estándar de sus diseñadores.