ChatGPT y otros asistentes de IA se han convertido en un atajo habitual para hacer deberes, escribir y estudiar. Funcionan rápido y, en el día a día, a veces parecen magia. ¿Qué pasa cuando esa ayuda no está?
Un equipo de Carnegie Mellon, la University of Oxford, el MIT y la University of California, Los Angeles probó la idea en tareas de razonamiento y comprensión lectora. En una prepublicación en arXiv concluyen que la IA mejora el rendimiento al instante, pero tras unos 10 minutos de uso la gente rinde peor sin ayuda y abandona antes. Esa posible «dependencia rápida» abre preguntas incómodas para el aula y para cualquiera que estudie con prisa.
La clave no es solo acertar, es insistir
En el artículo hablan de «persistence», que en la práctica es perseverancia. Es seguir intentando cuando un problema se atasca, en vez de rendirse.
Esa perseverancia es como un «músculo» del aprendizaje. Si siempre hay una respuesta instantánea, entrenas menos y luego te cuesta más pensar por tu cuenta.
Tres experimentos con una trampa sencilla
El estudio lo firman Grace Liu desde Carnegie Mellon University, Brian Christian y Tsvetomira Dumbalska desde la University of Oxford, Michiel A. Bakker desde el Massachusetts Institute of Technology y Rachit Dubey desde la University of California, Los Angeles. Reclutaron a más de 1.200 personas y las dividieron al azar entre un grupo con un chatbot descrito como «ChatGPT» y otro sin IA.
Las pruebas duraban unos minutos e incluían fracciones y comprensión lectora. A mitad del ejercicio, el asistente desaparecía y podían seguir o pulsar «saltar». Como el pago no dependía de acertar, ese botón funcionó como una medida clara de «me rindo».
Cuando se apaga el asistente, cae el rendimiento
Con IA disponible, el grupo asistido acertaba más y avanzaba más rápido. Pero al retirar el chatbot, su rendimiento bajaba por debajo del grupo que nunca lo usó.
El cambio también se vio en el abandono, con más «saltar» y más preguntas sin intentar. El trabajo es una prepublicación, todavía sin revisión por pares, el filtro en el que otros científicos revisan el método y los datos. Aun así, los autores destacan que el efecto aparece tras unos 10 minutos.
No es lo mismo pedir la respuesta que pedir pistas
En la segunda prueba, el equipo pidió a los participantes que contaran cómo habían usado la IA. Un 61 % dijo que buscó respuestas directas, un 27 % pidió pistas o aclaraciones y un 12 % casi no la usó.
Los peores resultados se concentraron en quienes pedían la solución ya hecha, según el análisis del propio estudio. Quienes usaban la IA como un «tutor» para entender pasos se parecían más al grupo sin IA.
La metáfora de la rana hervida y el coste invisible
Los autores usan la metáfora de la «rana hervida» para explicar el riesgo. Cada uso parece inocuo, pero el hábito puede cambiar tu umbral de esfuerzo sin que te des cuenta.
Es parecido a depender del GPS y dejar de fijarte en las calles. Con los chatbots, la preocupación es que algo similar pueda ocurrir con el pensamiento crítico y la memoria de lo que de verdad has entendido.
Cómo usar la IA sin perder el hilo
El artículo insiste en que fracciones y comprensión lectora son habilidades base para retos más complejos, como el álgebra o el razonamiento. Si abandonas antes, practicas menos y el aprendizaje se vuelve más superficial.
La idea encaja con otros trabajos recientes. Una encuesta en CHI 2025 recogió que muchos trabajadores dicen reducir el esfuerzo mental cuando usan IA, con cambios en su confianza según cómo la integran. Y el informe de la OCDE de 2026 sobre IA en educación advierte del riesgo de usar estos sistemas como un atajo en vez de un apoyo para aprender.
Los autores del nuevo estudio piden que las herramientas piensen más en el largo plazo y actúen más como un profesor que como una máquina de respuestas. Para el usuario, una regla simple es intentar primero con papel y boli, y pedir explicaciones o pistas, no solo el resultado final.
El estudio principal se ha publicado en arXiv.











