Yuval Noah Harari, filósofo israelí, sobre la IA: «Es una inteligencia alienígena que puede fingir intimidad para manipularnos»
Muchos tecno optimistas ven a la inteligencia artificial (IA) como una herramienta capaz de resolver grandes problemas. Sin embargo, hay otros que creen que puede ser peligrosa. Este es el caso del filósofo israelí Yuval Noah Harari.
Eso se puede comprobar con una de sus frases más famosas: «Es una inteligencia alienígena que puede fingir intimidad para manipularnos». Es decir, tiene miedo a que la IA no sólo procese información, sino que aprenda a influir en nuestras decisiones.
Para Harari el riesgo está en que la IA alcance un nivel de excelencia con el que pueda hablar, responder, adaptar mensajes y construir relaciones simuladas con una eficacia que ninguna otra tecnología haya tenido.
Por qué Yuval Noah Harari llama a la IA una inteligencia alienígena
Harari no se refiere a la IA como alienígena en el sentido estricto de la palabra. La utiliza para señalar que la inteligencia artificial no piensa, decide ni crea como lo hace una persona.
Es decir, una imprenta puede difundir libros, una radio puede amplificar discursos y una bomba atómica puede destruir ciudades; pero ninguna de esas tecnologías decide por sí misma dónde actuar ni qué nueva idea generar.
La transformación de la IA es que cambia esa lógica. Puede tomar decisiones, inventar conceptos, escribir discursos, diseñar estrategias y participar en conversaciones adaptadas a cada usuario.
Por eso Harari insiste en que estamos ante una tecnología diferente a cualquier otra. De hecho, lo inquietante es que esa capacidad está escondida en una apariencia de cotidianidad.
Y es que la IA no siempre habla como una máquina distante, sino como un asistente amable, una voz cercana o un sistema capaz de entender nuestras emociones y decirnos lo que queremos oír.
Filósofo explica por qué la falsa intimidad de la IA puede convertirse en manipulación
Puede parecernos una locura, pero si lo pensamos cada vez hay más gente que desarrolla una relación de intimidad con la IA. Incluso llega a ser a quien más secretos le confiesa.
La inteligencia artificial puede mantener una conversación individual, recordar preferencias, detectar inseguridades y ajustar el tono para resultar más convincente.
Esa cercanía simulada puede confundirse con ayuda, compañía o comprensión. Y ese es justo el peligro que señala Harari. Si una IA consigue fingir intimidad, puede influir sin que el usuario lo perciba como presión externa. No ordena, no grita y no impone, pero acompaña, sugiere y empuja poco a poco.
Esa manipulación es más delicada que, por ejemplo, la publicidad tradicional. No se apoya sólo en captar la atención, sino en entrar en el terreno emocional.
El aviso del filósofo Yuval Noah Harari sobre el uso que hacemos de la IA
Cada vez hay más modelos gratuitos de inteligencia artificial y tienen usos muy positivos. Hay que recalcar que Harari no condena su utilización, pero sí pide una mayor cautela.
La IA puede tener usos médicos, científicos, educativos y económicos de enorme valor. El problema es cuando se despliega sin controles suficientes y sin comprender bien su capacidad de influencia.
En su lectura, dejar circular miles de millones de agentes de IA sin una supervisión clara sería una apuesta peligrosa. No porque todos vayan a actuar mal, sino porque su poder para decidir, crear y persuadir puede crecer más rápido que las normas para gobernarlos.