Contenido
- 0.1 Si necesitas revisar todo el rato si tienes algún correo nuevo es por esto: lo explica la psicología
- 0.2 Las personas más inteligentes siempre empiezan el día con esta costumbre tan poco habitual
- 0.3 Qué significa no querer pisar las líneas del suelo mientras caminas, según la psicología
- 1 ¿Cuáles son los riesgos de la nueva moda que plantea decir adiós al psicólogo?
La Inteligencia Artificial (IA) es una herramienta utilizada para múltiples tareas y actividades que buscan facilitar procesos administrativos, logísticos y organizacionales. A pesar de sus aportes y beneficios, en los últimos años se evidencia el peligro sobre la moda que cada vez practica más gente: la terapia a través de la IA. Los psicólogos advierten que la terapia guiada por esta inteligencia carece del juicio clínico humano necesario para interpretar emociones complejas.
Según la Organización Mundial de la Salud (OMS), la salud mental es un estado de bienestar mental que permite a las personas hacer frente a los momentos de estrés de la vida, desarrollar todas tus habilidades, poder aprender y trabajar adecuadamente y contribuir a la mejora de su comunidad. Una buena salud mental es fundamental para sostener nuestras capacidades individuales y colectivas en la toma de decisiones, establecer relaciones y dar forma al mundo en el que vivimos. «Es un derecho humano fundamental y un elemento esencial para el desarrollo personal, comunitario y socioeconómico», destacan. Las autoridades de la OMS advierten que es más que la mera ausencia de trastornos mentales. En este sentido, señalan que los problemas en esta área comprenden trastornos mentales y discapacidades psicosociales, así como otros estados mentales asociados a un alto grado de angustia, discapacidad funcional o riesgo de conducta autolesiva.
¿Cuáles son los riesgos de la nueva moda que plantea decir adiós al psicólogo?
Un grupo de psicólogos advierte en la web CNN Español sobre los riesgos que conlleva la terapia a través de la IA. En este sentido, especifican que el uso de chatbots generales pueden no haber sido diseñados teniendo en cuenta la salud mental.
La doctora y psiquiatra Marlynn Wei plantea que los bots no tienen parámetros de seguridad ni formas de identificar si el asunto debe ser llevado a un clínico o a un profesional humano. “Los chatbots pueden ofrecer información incorrecta o información que el usuario quiere oír en lugar de lo que un terapeuta humano podría recomendar pensando en la salud mental”.
¿Cómo trabajan los terapeutas y qué desafíos enfrentan con la IA?
El doctor Daniel Kimmel, psiquiatra y profesor adjunto de Psiquiatría Clínica en la Universidad de Columbia, explica que los terapeutas desarrollan tres acciones principales.
Una es escuchar lo que los pacientes dicen y estar presente en la conversación. Luego, intentar conectar lo que están diciendo con algunas expresiones más generales que compartieron en otras sesiones, vincularlo a conceptos y teorías de la profesión. «En tercer lugar, filtrar el resultado a través de nuestras ideas y evaluar lo que va a ser más útil para el paciente».
Por esto, en base a esta nueva moda que eliminan al psicólogo, el profesional sostiene que los chatbots podrían plantear riesgos si no cumplieran esos pasos y, en su lugar, ofrecieran una orientación que el paciente podría no estar preparado para escuchar o que puede no serle útil en esa situación.
El Consejo General de Colegios Oficiales de Psicólogos advierte sobre el peligro de la terapia a través del uso de inteligencia artificial y los riesgos que puede generar para la salud mental a partir de los errores y la desinformación.
A su vez, sostienen que la IA no tiene la capacidad de comprender diversos factores contextuales y aumenta la posibilidad de producir un sesgo de datos. «Si estos datos son incompletos, no son representativos o reflejan prejuicios sociales existentes, la IA puede perpetuar estos sesgos, dando lugar a diagnósticos inexactos o discriminatorios», dicen los expertos.
También mencionan los peligros de esta nueva moda que elimina a los psicólogos de generar falsos positivos y negativos en los diagnósticos de terapia.
Las autoridades del Consejo de Psicólogos expresan preocupación porque la IA puede producir falsos positivos, sugiriendo una respuesta específica, como señalar un riesgo de suicidio cuando no existe, o falsos negativos, como no identificar un peligro o una crisis importante.
«Los problemas de salud mental se manifiestan de forma única en cada individuo, condicionados por experiencias subjetivas, contextos culturales, factores ambientales e historias personales», afirman.
La vulneración de datos y la ruptura de la privacidad
Otro de los peligros que destacan los expertos del Consejo General de Colegios Oficiales de Psicólogos son el uso sensible de los datos personales y el daño potencial que puede causar una gestión o uso indebido de esta información.
En este sentido, indican que la advertencia se debe al aumento de filtraciones de datos y accesos no autorizados. A su vez, señalan que esta consecuencia se debe a la creciente dependencia de las plataformas digitales y los sistemas interconectados en el área de la salud y de la asistencia social.
«La IA recopila y analiza grandes cantidades de datos personales sensibles, como historiales médicos, notas durante las sesiones de terapia e incluso la actividad en redes sociales», afirman.