Sesgos: ¿Personas o Inteligencia Artificial?

Inteligencia Artificial

Esta semana, la Audiencia Nacional ha absuelto al joven británico de origen indio Aditya Verma de 19 años por la acusación de desórdenes públicos. Todo comenzó cuando el joven, junto con un grupo de amigos, decide viajar en 2022 a Menorca para celebrar el final de sus exámenes.

Los amigos crean un grupo en Snapchat para el viaje, y momentos antes de subirse al avión, Verma envía una foto suya con la siguiente frase: «De camino a volar el avión (soy miembro de los talibanes)». Minutos después, su vuelo era escoltado por dos aviones caza españoles.

Aunque el joven estuvo detenido dos días y salió bajo fianza, la Fiscalía solicitaba 22.500 euros de multa por el delito de desórdenes públicos, más una indemnización de 94.782 euros al Ministerio de Defensa por el coste de los aviones cazas. Sin embargo, el juez del caso adujo que, como ni la foto ni la frase se enviaron a una institución oficial, y tampoco se publicaron abiertamente sino que se hicieron de manera privada, esto no constituye delito.

A primera vista, judicialmente estaríamos frente a una violación de la privacidad, sobre la cual el mismo joven podría contraatacar, ya que Snapchat -al igual WhatsApp- tiene cifrados los mensajes de extremo a extremo. No obstante, no podemos olvidar que en la era de la Inteligencia Artificial, la realidad es como un prisma: tiene muchas caras.

La otra cara de esta situación es la tecnológica, y claramente estamos ante un caso de sesgo algorítmico, en el que pudieron haber ocurrido dos posibilidades: la primera es que el algoritmo de Snapchat haya detectado una posible amenaza y al cotejarla con los datos del usuario (joven, indio, de piel oscura) haya encontrado una amenaza real; o la segunda, es que la Policía inglesa se haya saltado el cifrado, y el sistema haya clasificado el mensaje como peligroso.

En cualquiera de los casos, esta reacción sucede en cuestión de segundos gracias a los sistemas de toma de decisiones automatizadas (ADM) que analizan datos bajo parámetros definidos por el dueño del algoritmo. Pero atención, a pesar de que los algoritmos alertaron del posible peligro (para eso están programados), fueron humanos quienes dieron la voz de alerta.

Yo me pregunto ¿qué hubiera pasado si el mensaje lo hubiera enviado otro de los compañeros del grupo, que fuera 100% british? ¿También lo habrían clasificado como «posible terrorista»?

El caso es que los sesgos están de moda, y lamentablemente no porque estemos avanzando en su eliminación, sino justamente por todo lo contrario. Todo comienza cuando en 2014, y de acuerdo con una investigación de Reuters, se descubre que el algoritmo de contratación de Amazon discrimina a las mujeres en trabajos tecnológicos. A partir de ese momento, y a pesar de que la Inteligencia Artificial lleva casi siete décadas de desarrollo, nos dimos cuenta de que el sesgo era una realidad en las máquinas.

Pero, ¿es culpable la Inteligencia Artificial de los sesgos?

La respuesta fácil sería afirmar que sí. Pero resulta que el tema es más complejo, y la realidad es que los humanos llevamos siglos sesgando. Y toda esa información, que hemos adquirido de manera inconsciente en la mayoría de los casos, se la hemos transmitido a las máquinas a través de los datos que generamos.

Alguien tuvo que programar el algoritmo que discriminó al joven indio, alguien tuvo que aplicar parámetros para detectar amenazas, alguien tuvo que dar la instrucción que datos tales como la nacionalidad, la raza, el origen, o el idioma, podían constituir una fuente de sospecha.

El colmo de todo esto es que esta «discriminación» nos va a costar 117.282 €, y la vamos a tener que pagar todos de nuestro bolsillo.

Lo último en Opinión

Últimas noticias