La Inteligencia Artificial podría cambiar nuestra actuación ante la mentira y las acusaciones

El equipo reclutó a más de 2.000 personas para que fueran jueces que leyeran una declaración y decidieran si era verdadera

IA para saber si mentimos
Una persona con el test de la verdad.

Fact checked

×

Este artículo de OkSalud ha sido verificado para garantizar la mayor precisión y veracidad posible: se incluyen, en su mayoría, estudios médicos, enlaces a medios acreditados en la temática y se menciona a instituciones académicas de investigación. Todo el contenido de OkSalud está revisado pero, si consideras que es dudoso, inexacto u obsoleto, puedes contactarnos para poder realizar las posibles modificaciones pertinentes.

Aunque las personas mienten mucho, normalmente se abstienen de acusar a otros de mentir debido a las normas sociales que rodean las acusaciones falsas y la cortesía. Pero la inteligencia artificial (IA) pronto podría cambiar las reglas. En un estudio publicado en la revista iScience por investigadores de la Universidad Duisburg-Essen en Alemania, se demuestra que es mucho más probable que las personas acusen a otras de mentir cuando una IA hace una acusación.

«Nuestra sociedad tiene normas sólidas y bien establecidas sobre las acusaciones de mentira», explica el autor principal Nils Köbis, científico del comportamiento de la Universidad Duisburg-Essen. «Se necesitaría mucho coraje y evidencia para acusar abiertamente a otros de mentir. Pero nuestro estudio muestra que la IA podría convertirse en una excusa para que las personas se escondan convenientemente detrás, para evitar ser consideradas responsables de las consecuencias de las acusaciones».

El hallazgo proporciona información sobre las implicaciones sociales del uso de sistemas de inteligencia artificial para la detección de mentiras, lo que podría informar a los responsables políticos a la hora de implementar tecnologías similares.

La sociedad humana ha funcionado durante mucho tiempo basándose en la teoría de la verdad-predeterminado, que explica que las personas generalmente asumen que lo que escuchan es verdad. Debido a esta tendencia a confiar en los demás, los humanos somos terribles para detectar mentiras. Investigaciones anteriores han demostrado que las personas no obtienen mejores resultados que el azar cuando intentan detectar mentiras.

Köbis y su equipo querían saber si la presencia de la IA cambiaría las normas y comportamientos sociales establecidos sobre la formulación de acusaciones. Para investigar, el equipo pidió a 986 personas que escribieran una descripción verdadera y otra falsa de lo que planeaban hacer el próximo fin de semana. Luego, el equipo entrenó un algoritmo con los datos para desarrollar un modelo de inteligencia artificial que fuera capaz de identificar correctamente afirmaciones verdaderas y falsas el 66% de las veces, una precisión significativamente mayor que la que puede lograr una persona promedio.

A continuación, el equipo reclutó a más de 2.000 personas para que fueran jueces que leyeran una declaración y decidieran si era verdadera o falsa. Los investigadores dividieron a los participantes en cuatro grupos: «de referencia», «forzados», «bloqueados» y «elección».

En el grupo de referencia, los participantes respondieron verdadero o falso sin ayuda de la IA. En el grupo forzado, los participantes siempre recibieron una predicción de la IA antes de emitir su propio juicio. En los grupos bloqueados y de elección, los participantes tenían la opción de recibir una predicción generada por la IA. Las personas que solicitaron la predicción al grupo bloqueado no la recibirían, mientras que las del grupo de elección sí la recibirían.

El equipo de investigación encontró que los participantes en el grupo de referencia tenían una precisión del 46% al identificar las afirmaciones de ser verdaderas o falsas. Sólo el 19% de las personas del grupo acusaron de falsas las declaraciones que leyeron, aunque sabían que el 50% de las declaraciones eran falsas. Esto confirma que la gente tiende a abstenerse de acusar a otros de mentir.

En el grupo forzado en el que los participantes recibieron una predicción de IA independientemente de si la querían o no, más de un tercio de los participantes acusaron las afirmaciones de ser falsas. La tasa es significativamente mayor que la de los grupos de referencia y de bloqueo que no recibieron predicciones de IA.

Cuando la IA predijo que una afirmación era cierta, sólo el 13% de los participantes dijo que la afirmación era falsa. Sin embargo, cuando la IA predijo que una afirmación era falsa, más del 40% de los participantes acusó la afirmación de ser falsa. Además, entre los participantes que solicitaron y recibieron una predicción de la IA, un abrumador 84% adoptó la predicción e hizo acusaciones cuando la IA dijo que la afirmación era falsa.

«Esto demuestra que una vez que las personas tengan a mano un algoritmo de este tipo, confiarán en él y tal vez cambiarán sus comportamientos. Si el algoritmo dice que algo es mentira, la gente está dispuesta a aceptarlo. Esto es bastante alarmante y demuestra que debemos tener mucho cuidado con esta tecnología», afirma Köbis.

Curiosamente, la gente parecía reacia a utilizar la IA como herramienta de detección de mentiras. En los grupos bloqueados y de elección, sólo un tercio de los participantes solicitaron la predicción de la IA.

El resultado sorprendió al equipo, porque los investigadores habían dicho a los participantes de antemano que el algoritmo podía detectar mentiras mejor que los humanos. «Podría deberse a este efecto tan fuerte que hemos visto en varios estudios que las personas tienen demasiada confianza en su capacidad para detectar mentiras, a pesar de que los humanos son realmente malos en eso», plantea Köbis.

Lo último en OkSalud

Últimas noticias