Contenido
- 0.1 Las personas que prefieren quedarse en casa para no gastar dinero y sienten dolor al pagar piensan que están al borde del abismo, según la psicología
- 0.2 Éste es el significado de olvidar rápido el nombre de las personas, según la psicología
- 0.3 Alex Bryson, psicólogo: «El pico de infelicidad se ha desplazado hacia los jóvenes, ya no existe la crisis de la mediana edad»
- 1 Una bomba atómica no puede decidir dónde explotar; pero una IA sí
- 2 ¿Es el fin de la inteligencia humana?
- 3 ¿Por qué le preocupa la IA al filósofo israelí?
La inteligencia artificial ha dejado de ser una simple herramienta para convertirse en un riesgo existencial, para el reconocido historiado y pensador Juval Noah Harari. El filósofo sostiene que, mientras el mundo vigila de cerca las armas nucleares, la IA avanza sin una supervisión real. El problema principal radica en la capacidad de toma de decisiones independiente que los algoritmos poseen hoy en día.
A diferencia de una bomba atómica, que requiere una orden directa para explotar, los nuevos sistemas digitales operan bajo una lógica de autoaprendizaje. Esta naturaleza autónoma dificulta su control internacional y plantea un escenario donde la tecnología escapa definitivamente a la voluntad de sus creadores.
Una bomba atómica no puede decidir dónde explotar; pero una IA sí
La distinción clave que establece Yuval Noah Harari radica en la voluntad de la herramienta. Una bomba atómica carece de «agencia»; requiere un código, una orden y una ejecución externa para explotar y causar daño. Es decir, hay una persona responsable en «apretar el botón».
En cambio, la inteligencia artificial posee la facultad de «caminar sola», tal como advierte el pensador en sus declaraciones recogidas por National Geographic y en sus encuentros académicos en la Universidad de Keio. Para el historiador, el peligro real reside en que la IA ya toma decisiones críticas en sistemas de armamento autónomo sin que medie un humano.
Esta capacidad de interpretar y decidir transforma a la inteligencia artificial en una amenaza de corte «alienígena» y difícil de procesar para la sociedad.
Puntos que cuestiona Harari sobre las IA
El filósofo destaca varios puntos críticos sobre esta autonomía que Harari ya planteaba hace un año que tienen las inteligencias artificiales:
- La IA no es un instrumento pasivo como un martillo o un misil, sino es un agente que interpreta la realidad.
- Los sistemas ejecutan acciones en contextos bélicos y civiles de forma independiente.
- A diferencia del tabú nuclear establecido desde 1945, no existe un consenso global para frenar el avance de algoritmos peligrosos.
- El riesgo es mayor porque, a diferencia de la guerra nuclear que no tiene ganadores, la IA ofrece beneficios tentadores que nublan el juicio de reguladores y empresas.
¿Es el fin de la inteligencia humana?
El avance de la inteligencia artificial supone, en palabras de Yuval Noah Harari, el fin de un monopolio milenario para las personas. La inteligencia ya no pertenece solo a nuestra especie, y eso altera el tejido de las democracias.
El control de los algoritmos otorga un poder inédito a quienes los diseñan, lo que crea un desequilibrio global evidente. La falta de transparencia en cómo estas máquinas analizan datos y ejecutan sentencias genera una incertidumbre que la tecnología nuclear nunca tuvo, pues esta última era predecible en su capacidad destructiva.
Basados en las reflexiones del autor en sus últimas conferencias, el problema de la IA se agrava por su descentralización. Mientras los estados vigilan sus arsenales químicos o nucleares, el software evoluciona en laboratorios privados y oficinas corporativas sin regulaciones claras. Esta fragmentación impide que la humanidad establezca un muro de contención efectivo antes de que los sistemas alcancen un punto de no retorno en su desarrollo autónomo.
¿Por qué le preocupa la IA al filósofo israelí?
El filósofo israelí plantea la necesidad de un pacto internacional similar a los tratados de no proliferación. Sin embargo, la inteligencia artificial corre más rápido que la diplomacia. Harari insiste en que, si la sabiduría humana no guía este proceso, el control de la civilización dejará de estar en nuestras manos.
No se trata de una distopía de ciencia ficción con robots conscientes, sino de una realidad donde la IA decide qué información consumimos, cómo votamos y, en última instancia, quién es el objetivo en un campo de batalla.






