Yuval Noah Harari, filósofo: «Una bomba atómica no puede decidir dónde explotar; pero una IA sí»

Yuval Noah Harari es un historiador, filósofo y escritor best-seller israelí

Yuval Noah Harari (Frankfurter Buchmesse 2024). Foto: Martin Kraft, CC BY-SA 4.0, via Wikimedia Commons
Yuval Noah Harari (Frankfurter Buchmesse 2024). Foto: Martin Kraft, CC BY-SA 4.0, via Wikimedia Commons

Yuval Noah Harari (Frankfurter Buchmesse 2024). Foto: Martin Kraft, CC BY-SA 4.0, via Wikimedia Commons

La inteligencia artificial ha dejado de ser una simple herramienta para convertirse en un riesgo existencial, para el reconocido historiado y pensador Juval Noah Harari. El filósofo sostiene que, mientras el mundo vigila de cerca las armas nucleares, la IA avanza sin una supervisión real. El problema principal radica en la capacidad de toma de decisiones independiente que los algoritmos poseen hoy en día.

A diferencia de una bomba atómica, que requiere una orden directa para explotar, los nuevos sistemas digitales operan bajo una lógica de autoaprendizaje. Esta naturaleza autónoma dificulta su control internacional y plantea un escenario donde la tecnología escapa definitivamente a la voluntad de sus creadores.

Una bomba atómica no puede decidir dónde explotar; pero una IA sí

La distinción clave que establece Yuval Noah Harari radica en la voluntad de la herramienta. Una bomba atómica carece de «agencia»; requiere un código, una orden y una ejecución externa para explotar y causar daño. Es decir, hay una persona responsable en «apretar el botón».

En cambio, la inteligencia artificial posee la facultad de «caminar sola», tal como advierte el pensador en sus declaraciones recogidas por National Geographic y en sus encuentros académicos en la Universidad de Keio. Para el historiador, el peligro real reside en que la IA ya toma decisiones críticas en sistemas de armamento autónomo sin que medie un humano.

Esta capacidad de interpretar y decidir transforma a la inteligencia artificial en una amenaza de corte «alienígena» y difícil de procesar para la sociedad.

Puntos que cuestiona Harari sobre las IA

El filósofo destaca varios puntos críticos sobre esta autonomía que Harari ya planteaba hace un año que tienen las inteligencias artificiales:

¿Es el fin de la inteligencia humana?

El avance de la inteligencia artificial supone, en palabras de Yuval Noah Harari, el fin de un monopolio milenario para las personas. La inteligencia ya no pertenece solo a nuestra especie, y eso altera el tejido de las democracias.

El control de los algoritmos otorga un poder inédito a quienes los diseñan, lo que crea un desequilibrio global evidente. La falta de transparencia en cómo estas máquinas analizan datos y ejecutan sentencias genera una incertidumbre que la tecnología nuclear nunca tuvo, pues esta última era predecible en su capacidad destructiva.

Basados en las reflexiones del autor en sus últimas conferencias, el problema de la IA se agrava por su descentralización. Mientras los estados vigilan sus arsenales químicos o nucleares, el software evoluciona en laboratorios privados y oficinas corporativas sin regulaciones claras. Esta fragmentación impide que la humanidad establezca un muro de contención efectivo antes de que los sistemas alcancen un punto de no retorno en su desarrollo autónomo.

¿Por qué le preocupa la IA al filósofo israelí?

El filósofo israelí plantea la necesidad de un pacto internacional similar a los tratados de no proliferación. Sin embargo, la inteligencia artificial corre más rápido que la diplomacia. Harari insiste en que, si la sabiduría humana no guía este proceso, el control de la civilización dejará de estar en nuestras manos.

No se trata de una distopía de ciencia ficción con robots conscientes, sino de una realidad donde la IA decide qué información consumimos, cómo votamos y, en última instancia, quién es el objetivo en un campo de batalla.

Salir de la versión móvil