David Gross, premio Nobel de Física 2004, sobre el control de las armas nucleares: «Será difícil resistirse a que la IA tome sus propias decisiones»
David Gross, Premio Nobel de Física en 2024: "Las opciones de que vivas..."
Byung-Chul Han, filósofo, sobre el estrés y los logros personales
Los expertos del CSIC alertan por el consumo de especies amenazadas
David Gross, figura clave de la ciencia moderna y premio Nobel de Física 2004, ha alertado sobre un peligro inminente en la gestión de los arsenales atómicos. Este físico teórico, cuya carrera despegó bajo la influencia de las ideas de Einstein, observa con preocupación cómo la velocidad de los conflictos actuales empuja a las potencias hacia la automatización total con inteligencia artificial.
Para él, la seguridad global ya no depende solo de tratados, sino de algoritmos. La fragilidad del orden mundial se agrava con la incorporación de sistemas de computación avanzada en los gobiernos. Según explica el científico en una entrevista para Live Science, la presión del tiempo en un escenario de ataque inminente resulta asfixiante para cualquier líder humano.
El premio Nobel de Física 2004 sostiene que, en un mundo como el nuestro, la delegación de responsabilidades en máquinas parece un paso inevitable, aunque aterrador.
Sobre el control de las armas nucleares: «Será difícil resistirse a que la IA tome sus propias decisiones»
David Gross afirma que, ante la amenaza de un ataque con cientos de misiles, un mandatario apenas dispone de 20 minutos para actuar. En este punto, el científico advierte que será difícil resistirse a que la IA tome sus propias decisiones debido a que los humanos son demasiado lentos para los ritmos de la guerra moderna. Esta cesión de soberanía a los sistemas digitales supone un riesgo existencial sin precedentes.
El problema fundamental radica en la fiabilidad de estos sistemas automatizados con IA. Quienes trabajan de cerca con la tecnología saben que la inteligencia artificial no es infalible; a menudo presenta fallos lógicos o incluso «alucinaciones».
Gross, basado en su experiencia sobre cómo funcionan las leyes de la naturaleza y la lógica, teme que un error de interpretación de un código desencadene el fin de la civilización. Para él, que el control de las armas nucleares esté bajo la tutela de la inteligencia artificial elimina el factor del juicio humano, el último filtro que evitó el desastre durante la Guerra Fría.
«Va a ser muy difícil resistirse a dejar que la IA tome decisiones porque actúa de forma muy rápida. Si tienes 20 minutos para decidir si envías unos cuantos cientos de misiles armados con ojivas nucleares tanto a China como a Rusia por ‘nuestro querido presidente’, los militares podrían sentir que es más sabio dejar que la IA tome esa decisión. Pero si juegas con la IA, sabes que a veces tiene alucinaciones», respondió Gross durante la entrevista con Tia Ghose para el medio Live Science.
Los riesgos de la automatización en la defensa global
La carrera armamentística actual ha dejado atrás los viejos protocolos de seguridad. El premio Nobel de Física 2004 recalca que ya no estamos en un juego de dos jugadores, sino en un escenario caótico con múltiples potencias nucleares.
Esta complejidad hace que el uso de la IA sea aún más tentador para las cúpulas militares que buscan una ventaja competitiva. Sin embargo, la automatización de la muerte no ofrece garantías de estabilidad, sino que aumenta la imprevisibilidad del sistema basándose en los siguientes puntos clave:
- La IA actúa con una rapidez que impide la rectificación humana ante errores de lectura.
- Los fallos de programación podrían interpretar señales atmosféricas falsas como ataques reales.
- La falta de normas internacionales sobre el uso de algoritmos en combate genera un vacío legal peligroso.
Para Gross, la humanidad se asoma a un abismo donde el control de las armas nucleares escapa de las manos de sus creadores. El riesgo de que una máquina decida el destino de millones de personas es una posibilidad que el físico considera muy cercana.
Por otro lado, hay que tener en cuenta que si un sistema operativo malinterpreta un dato y lanza un contraataque, no habrá diplomacia capaz de frenar la inercia de la destrucción nuclear.
David Gross concluye que la humanidad debe decidir si mantiene las riendas de su propia existencia, al igual que se establecieron normas para otros grandes peligros globales.
Lo último en Ciencia
-
La agricultura española está de enhorabuena: hito innovador para combatir la plaga del mildiu de la patata en 2026
-
David Gross, premio Nobel de Física 2004, sobre el control de las armas nucleares: «Será difícil resistirse a que la IA tome sus propias decisiones»
-
Se acerca el punto de inflexión: el mar Caspio está desapareciendo a un ritmo alarmante
-
Investigadores de Murcia desarrollan una tecnología con líquido iónico que elimina nanoplásticos del agua contaminada
-
La ciencia, desconcertada: un estudio confirma que la energía eólica flotante es positiva para los ecosistemas marinos
Últimas noticias
-
Cuándo es Eurovisión 2026: fecha, participantes, favoritos y ganador de 2025
-
El Racing de Santander vuelve a Primera División después de 14 años y tras rozar la desaparición
-
Eurovisión 2026, en directo | Última hora de las actuaciones, por qué no actúa España y cómo votar
-
Por qué España no participa en Eurovisión 2026 y lista de países que tampoco están
-
Qué es Eurovisión: cómo funciona, sistema de votación y todo sobre la edición de 2026