Un estudio enciende las alarmas, la inteligencia artificial podría superar al ser humano antes de 2027
Un estudio avanza que la IA será una superinteligencia a partir del 2027
Ni El Escorial ni Alcalá de Henares: éste es el pueblo de Madrid con el metro cuadrado más bajo, según la IA
Una IA detecta lesiones cerebrales mínimas que causan epilepsia en niños

Hace nada, hablar de inteligencia artificial sonaba a ciencia ficción. De hecho, para muchas personas era como la películas en las que los robots piensan por su cuenta, mientras los humanos se enfrentan a ellos. Pero lo cierto es que eso ya no es una historia del futuro. En cuestión de pocos años, la IA ha pasado de ser un experimento a una realidad que se cuela en casi todo: en los móviles, en los programas que escriben, dibujan o incluso deciden por nosotros. Y aunque parece que por el momento está de nuestro lado, todo podría cambiar y además, en un periodo de tiempo bastante corto.
Las alertas en torno a la inteligencia artificial se han activado, a raíz de un estudio llamado AI-2027, que firma Daniel Kokotajlo, un antiguo investigador de OpenAI. Su tesis afirma que una superinteligencia artificial (una máquina que piense y razone mejor que cualquier persona) podría aparecer antes de que termine 2027. No es una exageración ni una novela. Es una proyección construida sobre datos reales, sobre la velocidad a la que los sistemas están aprendiendo por sí solos. El informe no busca asustar, pero sí dejar claro algo que empieza a ser evidente: las máquinas ya no sólo aprenden de lo que les damos, sino que están empezando a mejorarse a sí mismas. Y eso cambia las reglas del juego. Porque si una IA puede perfeccionarse sin ayuda humana, el ritmo de progreso podría salirse de nuestras manos antes de que nos demos cuenta.
Un estudio enciende las alarmas sobre la inteligencia artificial
Según Kokotajlo, estamos viviendo una especie de punto de inflexión. La IA no avanza de forma lineal, sino exponencial. Cada mejora genera la siguiente. «Los sistemas ya son capaces de crear versiones mejores de sí mismos», advierte. Dicho de otro modo: el aprendizaje automático se ha vuelto autoalimentado.
El estudio propone una especie de calendario. En 2025, aparecerán los primeros agentes autónomos capaces de ejecutar tareas complejas sin que nadie los supervise. En 2026, esas inteligencias llegarán al nivel de un ingeniero humano y empezarán a reescribir su propio código. Y en 2027, si el pronóstico se cumple, las máquinas podrían superar al ser humano en razonamiento, creatividad y rapidez mental.
En ese punto,, lo que el estudio llama»superinteligencia recursiva», el proceso se volvería imparable. Las máquinas seguirían mejorándose a una velocidad que escaparía a nuestra comprensión. Lo que antes llevaba años podría resolverse en días. Suena exagerado, pero viendo cómo avanza la IA generativa, muchos expertos reconocen que el salto podría estar más cerca de lo que pensamos.
Los expertos, divididos ante lo que viene
El informe ha desatado un debate enorme entre los gigantes tecnológicos. Sam Altman, CEO de OpenAI, cree que la inteligencia artificial general (AGI), una que piense de forma similar a un humano, podría llegar antes de lo esperado. También Demis Hassabis, fundador de DeepMind (Google), habla de un plazo de entre cinco y diez años, aunque deja claro que podría ocurrir antes si el ritmo de mejora se mantiene.
Otros no lo ven tan claro. Yann LeCun, de Meta, dice que las máquinas todavía «no entienden realmente el mundo, solo lo imitan». Y Gary Marcus, investigador y una de las voces más críticas, insiste en que los modelos actuales carecen de sentido común. En resumen, saben mucho, pero no comprenden lo que saben.
Aun así, todos coinciden en algo: la velocidad del cambio es tan grande que no hay tiempo que perder. Lo que está en juego ya no es cuándo llegará la superinteligencia, sino si estaremos preparados para manejarla cuando aparezca.
Lo que podría cambiar en el trabajo y en la economía
Si los cálculos de AI-2027 se cumplen, el impacto en el empleo sería brutal. Muchas profesiones (desde ingenieros hasta creativos, pasando por periodistas o abogados) podrían cambiar radicalmente. Algunas desaparecerán; otras nacerán de cero. Pero en general, la frontera entre lo que puede hacer una persona y lo que puede hacer una máquina se volverá difusa.
El informe lo resume con una frase muy clara: «La clave no será competir con las máquinas, sino aprender a colaborar con ellas». Y tiene sentido. Habrá tareas en las que la IA sea más rápida, pero todavía hay aspectos que no puede copiar: la empatía, la ética, el juicio humano o la intuición.
A nivel económico, el panorama es doble. Por un lado, la productividad podría dispararse. Por otro, el poder se concentraría aún más. Las empresas que controlen los sistemas más avanzados dominarán sectores enteros, y eso puede agrandar la brecha entre países ricos y pobres. No se trata solo de tecnología: se trata de quién tiene el control.
Cómo convivir con algo más inteligente que nosotros
Más allá del impacto económico, el verdadero reto será emocional y ético. ¿Qué ocurre cuando una creación supera a su creador? El informe plantea una duda de fondo que no es menor: ¿seguirá el ser humano sintiéndose el centro del mundo si deja de ser la mente más avanzada?
Algunos expertos ven en este avance una oportunidad enorme. Si se orienta con responsabilidad, estas nuevas inteligencias podrían ayudarnos a resolver desafíos globales (desde el cambio climático hasta la lucha contra enfermedades) en menos tiempo del que imaginamos. Otros, sin embargo, no lo tienen tan claro. Temen que el control se diluya y que las decisiones empiecen a tomarse sin supervisión humana. Y ahí surge la gran pregunta: ¿cómo aseguramos que esos sistemas mantengan nuestros valores y objetivos?
Por eso, el informe insiste en la necesidad de abrir un debate serio y global sobre los límites éticos, la regulación y la transparencia. No se trata sólo de tecnología, sino de humanidad. Lo que está en juego no es un empleo ni una cifra de productividad, sino el papel que queremos ocupar en el mundo que estamos construyendo..
Por último, el estudio recomienda reforzar lo que la IA todavía no puede replicar: la empatía, la creatividad, el pensamiento crítico y la ética. También pide que los gobiernos y las empresas colaboren para establecer límites claros. La tecnología puede ser una herramienta o una amenaza, según cómo la usemos.