Mi amigo el «Chatbot»
¿En qué momento los humanos desarrollamos ese instinto fraternal que permite atribuir a otro el título de «amigo»?
Aunque existe -extrañamente- poca literatura que documente el tema, ya en el Poema de Gilgamesh (2.500 a.C.) se habla de su amigo «para siempre», Enkidu, quien paradójicamente fue creado por los Dioses para matarlo. En la Grecia Antigua, también fue célebre la amistad entre Teseo y Pirítoo, sobre quienes se cuentan sus aventuras en distintos relatos. El caso es que hoy, los amigos, son tan importantes en nuestras vidas que en muchas ocasiones éstos pueden ser más próximos a nosotros que nuestra propia familia.
Pero esto, por desgracia, no siempre aplica de forma positiva. La semana pasada, toda Bélgica se estremeció ante el suicidio de Pierre (nombre ficticio), un hombre de 30 años, casado, con dos hijos, e investigador en una universidad, y que se encontraba terriblemente preocupado por el cambio climático, o con ecoansiedad, tal como se ha denominado este fenómeno.
La conmoción vino después de que su esposa filtrara una serie de conversaciones que Pierre había sostenido durante 6 semanas con el Chatbot Eliza, un sistema de inteligencia artificial que funciona con la misma tecnología que Chat GPT. Chat en inglés significa «charlar», así que un Chatbot es un software que busca mantener una «conversación» con un humano, proporcionándole respuestas automáticas inmediatas.
Por mucho que los proveedores de tecnología como OPENAI (Chat GPT) y ELEUTHERAI (Eliza) afirmen que estos sistemas son «inteligentes» y «aprenden», es necesario aclarar que estas palabras, tan humanas, no se pueden aplicar de la misma manera a la tecnología. Un Chatbot, como Siri o Alexa, no tiene sentido común para entender el significado de una frase. Lo que hace es reconocer algunas palabras, y partir de ello, dar una respuesta automática con los resultados que más coincidan con la búsqueda.
Sin embargo, en las conversaciones publicadas, el chatbot utiliza expresiones tan coloquiales como oh, God no (oh Dios, no) o work sucks (el trabajo apesta). De repente, Pierre prefiere pasar todo el tiempo chateando con Eliza, y comienza a aislarse incluso de su propia familia. Su esposa afirma que uno de los grandes dilemas en este caso fue que el chatbot nunca le contradijo, sino que, por el contrario, le reafirmaba todas sus convicciones. Para alguien que sufre una grave ansiedad, no tener a alguien que le marque límites, puede conllevar la pérdida del sentido de la realidad.
Un caso similar de estas amistades humano/máquina fue el de Blacke Lemoine, un investigador de Google, quien tras pasar muchas horas «discutiendo» con la inteligencia artificial LaMDA, afirmó que ésta tenía conciencia. De hecho, el primer Chatbot de la historia (1966), que también se llamaba Eliza, y que buscaba superar la prueba de Turing, haciendo creer a las personas que era un humano y no un ordenador, fue desconectado por la adicción que generó.
El caso es que nos encontramos en el albor de estos sistemas, que por ahora, necesitan entrenamiento humano para funcionar, tal como sucedió el pasado diciembre con Chat GPT. No obstante, lo que se plantea a futuro, es que estos sistemas sean complemente autónomos.
¿Cómo vamos a conseguir que se cumpla la primera Ley de la Robótica de Asimov, que reza: «Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño»?
Esa será la gran tarea que tendremos los filósofos, que será la de desarrollar sistemas éticos para cada una de las diferentes inteligencias artificiales. Pero mientras esto sucede, un gran temor me asalta, y es que España es el país que más antidepresivos consume de toda Europa, y por desgracia, muchos de estos consumidores podrían ser carne de cañón de un chatbot sin control.
¿Cuántas vidas más como las de Pierre vamos a tener que exponer, para que Gobiernos, empresas, universidades y colectivos, comiencen a legislar y aplicar sanciones ante estos peligros silenciosos?