David Gross, premio Nobel de Física 2004, sobre el control de las armas nucleares: «Será difícil resistirse a que la IA tome sus propias decisiones»
David Gross, figura clave de la ciencia moderna y premio Nobel de Física 2004, ha alertado sobre un peligro inminente en la gestión de los arsenales atómicos. Este físico teórico, cuya carrera despegó bajo la influencia de las ideas de Einstein, observa con preocupación cómo la velocidad de los conflictos actuales empuja a las potencias hacia la automatización total con inteligencia artificial.
Para él, la seguridad global ya no depende solo de tratados, sino de algoritmos. La fragilidad del orden mundial se agrava con la incorporación de sistemas de computación avanzada en los gobiernos. Según explica el científico en una entrevista para Live Science, la presión del tiempo en un escenario de ataque inminente resulta asfixiante para cualquier líder humano.
El premio Nobel de Física 2004 sostiene que, en un mundo como el nuestro, la delegación de responsabilidades en máquinas parece un paso inevitable, aunque aterrador.
Sobre el control de las armas nucleares: «Será difícil resistirse a que la IA tome sus propias decisiones»
David Gross afirma que, ante la amenaza de un ataque con cientos de misiles, un mandatario apenas dispone de 20 minutos para actuar. En este punto, el científico advierte que será difícil resistirse a que la IA tome sus propias decisiones debido a que los humanos son demasiado lentos para los ritmos de la guerra moderna. Esta cesión de soberanía a los sistemas digitales supone un riesgo existencial sin precedentes.
El problema fundamental radica en la fiabilidad de estos sistemas automatizados con IA. Quienes trabajan de cerca con la tecnología saben que la inteligencia artificial no es infalible; a menudo presenta fallos lógicos o incluso «alucinaciones».
Gross, basado en su experiencia sobre cómo funcionan las leyes de la naturaleza y la lógica, teme que un error de interpretación de un código desencadene el fin de la civilización. Para él, que el control de las armas nucleares esté bajo la tutela de la inteligencia artificial elimina el factor del juicio humano, el último filtro que evitó el desastre durante la Guerra Fría.
«Va a ser muy difícil resistirse a dejar que la IA tome decisiones porque actúa de forma muy rápida. Si tienes 20 minutos para decidir si envías unos cuantos cientos de misiles armados con ojivas nucleares tanto a China como a Rusia por ‘nuestro querido presidente’, los militares podrían sentir que es más sabio dejar que la IA tome esa decisión. Pero si juegas con la IA, sabes que a veces tiene alucinaciones», respondió Gross durante la entrevista con Tia Ghose para el medio Live Science.
Los riesgos de la automatización en la defensa global
La carrera armamentística actual ha dejado atrás los viejos protocolos de seguridad. El premio Nobel de Física 2004 recalca que ya no estamos en un juego de dos jugadores, sino en un escenario caótico con múltiples potencias nucleares.
Esta complejidad hace que el uso de la IA sea aún más tentador para las cúpulas militares que buscan una ventaja competitiva. Sin embargo, la automatización de la muerte no ofrece garantías de estabilidad, sino que aumenta la imprevisibilidad del sistema basándose en los siguientes puntos clave:
- La IA actúa con una rapidez que impide la rectificación humana ante errores de lectura.
- Los fallos de programación podrían interpretar señales atmosféricas falsas como ataques reales.
- La falta de normas internacionales sobre el uso de algoritmos en combate genera un vacío legal peligroso.
Para Gross, la humanidad se asoma a un abismo donde el control de las armas nucleares escapa de las manos de sus creadores. El riesgo de que una máquina decida el destino de millones de personas es una posibilidad que el físico considera muy cercana.
Por otro lado, hay que tener en cuenta que si un sistema operativo malinterpreta un dato y lanza un contraataque, no habrá diplomacia capaz de frenar la inercia de la destrucción nuclear.
David Gross concluye que la humanidad debe decidir si mantiene las riendas de su propia existencia, al igual que se establecieron normas para otros grandes peligros globales.