En diciembre de 2014, Stephen Hawking dejó una frase que todavía se cita cuando se habla de inteligencia artificial avanzada. Dijo «The development of full artificial intelligence could spell the end of the human race». La pregunta era simple y muy incómoda, qué pasa si una máquina aprende a mejorar su propia inteligencia.
No hablaba de un robot con cara humana, sino de sistemas capaces de aprender y tomar decisiones cada vez más complejas sin supervisión constante. Su idea era incómoda porque no depende de un villano, basta con que una máquina muy lista persiga un objetivo mal definido. ¿Y si, simplemente, se nos va de las manos?
Qué es una «IA completa»
Hoy la mayoría de la IA que usas en el móvil hace una cosa concreta, como traducir una frase o recomendar vídeos. Una «IA completa» sería otra liga, un sistema que aprende casi cualquier tarea intelectual y luego salta a la siguiente sin empezar de cero. Es como comparar una app de notas con alguien que puede aprender un temario entero.
En una respuesta pública de 2015, Hawking explicó que el punto crítico llega cuando una IA se vuelve mejor que los humanos diseñando IA. A partir de ahí podría mejorar por sí sola y crecer a un ritmo difícil de seguir. A esa escalada se la suele llamar «explosión de inteligencia».
Por qué le preocupaba el control
El 19 de octubre de 2016, en la Universidad de Cambridge, Hawking insistió en que el salto podía ser enorme. Lo resumió así, «The rise of powerful AI will either be the best or the worst thing ever to happen to humanity». También avisó de armas autónomas, de sacudidas en la economía y de metas que podrían chocar con las humanas.
Aquí entra un concepto menos famoso pero clave, el desajuste de objetivos. Si a un sistema le pides «maximiza X» y X no incluye la seguridad humana, puede buscar atajos que nadie esperaba. Por eso se habla de alinear metas, que la máquina persiga lo que queremos de verdad y no solo lo que escribimos deprisa en una lista de instrucciones.
Armas autónomas en el punto de mira
El 28 de julio de 2015, Hawking firmó una carta abierta presentada en el congreso IJCAI que pedía frenar el uso ofensivo de armas autónomas. El texto definía estas armas como sistemas que seleccionan y atacan objetivos sin intervención humana directa, y pedía una prohibición «más allá de un control humano significativo». La carta lo remataba con una advertencia simple, «Starting a military AI arms race is a bad idea». (stopkillerrobots.org)
Lo inquietante no es solo la imagen de ciencia ficción. Es el efecto cadena, herramientas baratas, fáciles de copiar y con software que se actualiza como el de una consola. En ese escenario, un fallo no queda en una pantalla, se traduce en daño real.
Trabajo y desigualdad
En octubre de 2015, en una sesión de preguntas y respuestas en internet, Hawking también aterrizó el debate en la vida diaria. Lo dijo así, «If machines produce everything we need, the outcome will depend on how things are distributed». Para él, la automatización podía liberar tiempo, pero también empujar a mucha gente a la precariedad si la riqueza se concentra.
En la práctica, eso significa que no solo están en riesgo trabajos manuales repetitivos. También tareas de oficina, contabilidad básica o atención al cliente, justo las que sostienen a muchas familias de clase media. A la vez, suelen aparecer nuevos empleos, pero no siempre en los mismos lugares ni con la misma formación.
Confianza y cajas negras
En Cambridge, el debate no se quedó en el futuro lejano. Un texto de octubre de 2016 recordaba que ya había habido una muerte asociada a un coche con conducción automática y planteaba la duda de cuánto entendemos un sistema que aprende solo. En ámbitos de alto riesgo, los investigadores pedían métodos para poder confiar en lo que una máquina recomienda.
Los expertos llaman «caja negra» a un modelo que da respuestas, pero no explica bien el camino que ha seguido. Puede acertar mucho y aun así ser difícil de revisar, como cuando una calculadora te da un resultado sin enseñarte las cuentas. La transparencia sirve para detectar sesgos, errores y momentos en los que la máquina debería parar y pedir ayuda humana.
El mensaje póstumo
Parte de estas ideas se reunió en su libro final, Brief Answers to the Big Questions, publicado el 16 de octubre de 2018 en Estados Unidos. La descripción del editor lo presenta como un repaso a grandes retos modernos, incluida la IA, junto a temas como el clima o la guerra nuclear. También recuerda que Hawking fue profesor lucasiano de matemáticas en la Universidad de Cambridge y murió en 2018.
Al final del día, su advertencia no era «apaguen los ordenadores». Era una invitación a pensar antes de desplegar sistemas que toman decisiones por nosotros, desde el trabajo hasta la seguridad. La pregunta que dejó abierta sigue siendo la misma, quién define los objetivos y quién responde cuando algo sale mal.
La nota principal se ha publicado en Universidad de Cambridge.












