
Cuando el gigante de la inteligencia artificial OpenAI lanzó el “modo de estudio” en julio de 2025, la compañía promocionó los beneficios educativos de ChatGPT. “Cuando se le solicita a ChatGPT que enseñe o dé tutorías, puede mejorar significativamente el rendimiento académico”, declaró el vicepresidente de educación de la compañía a la prensa durante el lanzamiento del producto. Pero cualquier profesor dedicado tendría razón al preguntarse: ¿Es esto solo marketing o la investigación académica realmente respalda tales afirmaciones?
Si bien las herramientas de inteligencia artificial generativa se están incorporando a las aulas a la velocidad de la luz, la investigación sólida sobre este tema no ha avanzado con la misma rapidez. Algunos estudios preliminares han mostrado beneficios para ciertos grupos, como estudiantes de programación informática y estudiantes de inglés. Además, existen otros estudios optimistas sobre la IA en la educación, como uno publicado en la revista Nature en mayo de 2025 que sugiere que los chatbots pueden facilitar el aprendizaje y el pensamiento complejo.
Sin embargo, los académicos en el campo han señalado importantes debilidades metodológicas en muchos de estos trabajos de investigación. Otros estudios han presentado un panorama más sombrío, sugiriendo que la inteligencia artificial podría perjudicar el rendimiento o las capacidades cognitivas, como el pensamiento crítico. Un artículo demostró que cuanto más usaba un estudiante ChatGPT durante su aprendizaje, peor le iba posteriormente en tareas similares cuando ChatGPT no estaba disponible.
En otras palabras, las primeras investigaciones apenas están comenzando a vislumbrar cómo esta tecnología afectará realmente el aprendizaje y la cognición a largo plazo. ¿Dónde más podemos buscar pistas? Como psicólogo cognitivo que ha estudiado cómo los estudiantes universitarios usan la inteligencia artificial, he descubierto que mi campo ofrece una valiosa orientación para identificar cuándo la tecnología puede ser un potenciador cerebral y cuándo corre el riesgo de convertirse en un drenador de cerebros.
La habilidad surge del esfuerzo
Los psicólogos cognitivos han argumentado que nuestros pensamientos y decisiones son el resultado de dos modos de procesamiento, comúnmente denominados Sistema 1 y Sistema 2.
El primero es un sistema de coincidencia de patrones, intuición y hábito. Es rápido y automático, y requiere poca atención consciente o esfuerzo cognitivo. Muchas de nuestras actividades cotidianas —vestirse, preparar café e ir en bicicleta al trabajo o a la escuela— entran en esta categoría. El Sistema 2, por otro lado, suele ser lento y deliberado, requiriendo mayor atención consciente y, a veces, un esfuerzo cognitivo arduo, pero a menudo produce resultados más sólidos.
Necesitamos ambos sistemas, pero adquirir conocimientos y dominar nuevas habilidades depende en gran medida del Sistema 2. La dificultad, la fricción y el esfuerzo mental son cruciales para el trabajo cognitivo de aprender, recordar y fortalecer las conexiones cerebrales. Cada vez que un ciclista seguro se sube a una bicicleta, confía en el reconocimiento de patrones que tanto le costó conseguir en su Sistema 1, desarrollado previamente a través de muchas horas de arduo trabajo con el Sistema 2 dedicado a aprender a montar. No se alcanza la maestría ni se puede fragmentar la información eficientemente para un procesamiento de alto nivel sin antes realizar el esfuerzo y la tensión cognitiva.
Les digo a mis alumnos que el cerebro es muy parecido a un músculo: se necesita un esfuerzo genuino para ver resultados. Sin exigirle esfuerzo a ese músculo, no crecerá.
¿Y si una máquina hiciera el trabajo por ti? Ahora imagina un robot que te acompaña al gimnasio y levanta las pesas por ti, sin necesidad de esfuerzo por tu parte. En poco tiempo, tus músculos se habrán atrofiado y dependerás del robot en casa incluso para tareas sencillas como mover una caja pesada.
La inteligencia artificial, mal utilizada —para completar un examen o escribir un ensayo, por ejemplo— permite que los estudiantes omitan precisamente lo que necesitan para desarrollar conocimientos y habilidades. Les quita el entrenamiento mental.
Usar la tecnología para delegar eficazmente el entrenamiento cognitivo puede tener un efecto perjudicial en el aprendizaje y la memoria, y puede hacer que las personas malinterpreten su propia comprensión o habilidades, lo que lleva a lo que los psicólogos llaman errores metacognitivos. Investigaciones han demostrado que delegar habitualmente la navegación del coche al GPS puede perjudicar la memoria espacial y que usar una fuente externa como Google para responder preguntas hace que las personas confíen demasiado en su propio conocimiento y memoria.

¿Existen riesgos similares cuando los estudiantes delegan tareas cognitivas a la IA? Un estudio reveló que los estudiantes que investigaban un tema usando ChatGPT en lugar de una búsqueda web tradicional tenían una menor carga cognitiva durante la tarea (no tenían que pensar tanto) y producían un razonamiento peor sobre el tema investigado. El uso superficial de la IA puede significar una menor carga cognitiva en el momento, pero es similar a dejar que un robot haga tu entrenamiento en el gimnasio. En última instancia, conduce a un menor desarrollo de las habilidades de pensamiento.
En otro estudio, los estudiantes que usaron IA para revisar sus ensayos obtuvieron mejores resultados que quienes los revisaron sin IA, a menudo simplemente copiando y pegando frases de ChatGPT. Sin embargo, estos estudiantes no mostraron mayor adquisición o transferencia de conocimientos reales que sus compañeros que trabajaron sin ella. El grupo con IA también se involucró menos en procesos de pensamiento rigurosos del Sistema 2. Los autores advierten que esta “pereza metacognitiva” puede impulsar mejoras de rendimiento a corto plazo, pero también conducir al estancamiento de habilidades a largo plazo.
Descargar puede ser útil una vez que se establecen las bases. Pero estas bases no se pueden formar a menos que el cerebro realice el trabajo inicial necesario para codificar, conectar y comprender los problemas que se intentan dominar.
Uso de la IA para apoyar el aprendizaje
Volviendo a la metáfora del gimnasio, puede ser útil para los estudiantes pensar en la IA como un entrenador personal que puede mantenerlos concentrados en la tarea mediante el seguimiento y el andamiaje del aprendizaje, y animándolos a esforzarse más. La IA tiene un gran potencial como herramienta de aprendizaje escalable, un tutor individualizado con una amplia base de conocimientos que nunca duerme.
Las empresas de tecnología de IA buscan diseñar precisamente eso: el tutor definitivo. Además de la entrada de OpenAI en la educación, en abril de 2025 Anthropic lanzó su modo de aprendizaje para Claude. Se supone que estos modelos participan en un diálogo socrático, plantean preguntas y ofrecen pistas, en lugar de simplemente dar las respuestas.
Las primeras investigaciones indican que los tutores de IA pueden ser beneficiosos, pero también plantean problemas. Por ejemplo, un estudio reveló que los estudiantes de secundaria que repasaban matemáticas con ChatGPT obtuvieron peores resultados que los que no usaron IA. Algunos estudiantes usaron la versión básica y otros una versión personalizada del tutor que ofrecía pistas sin revelar las respuestas.
Cuando los estudiantes presentaron un examen posteriormente sin acceso a IA, quienes usaron ChatGPT básico obtuvieron resultados mucho peores que un grupo que estudió sin IA, pero no se dieron cuenta de que su rendimiento era menor. Quienes estudiaron con el bot tutor no obtuvieron mejores resultados que los estudiantes que repasaron sin IA, pero pensaron erróneamente que lo habían hecho mejor. Por lo tanto, la IA no ayudó y generó errores metacognitivos.
Incluso a medida que se perfeccionan y mejoran los modos de tutoría, los estudiantes deben seleccionar activamente ese modo y, por ahora, también deben participar, proporcionando contexto con destreza y guiando al chatbot para evitar preguntas inútiles y de bajo nivel, o adulación.
Estos últimos problemas pueden solucionarse con un mejor diseño, indicaciones del sistema e interfaces personalizadas. Pero la tentación de usar la IA predeterminada para evitar el trabajo duro seguirá siendo un problema fundamental y clásico en la enseñanza, el diseño de cursos y la motivación de los estudiantes para evitar atajos que socavan su entrenamiento cognitivo.
Al igual que con otras tecnologías complejas como los teléfonos inteligentes, internet o incluso la propia escritura, los investigadores necesitarán más tiempo para comprender plenamente el verdadero alcance de los efectos de la IA en la cognición y el aprendizaje. En definitiva, el panorama probablemente presentará matices que dependerán en gran medida del contexto y el caso de uso.
Pero lo que sabemos sobre el aprendizaje nos dice que el conocimiento profundo y el dominio de una habilidad siempre requerirán un verdadero entrenamiento cognitivo, con o sin IA.
Brian W. Stone es profesor asociado de psicología cognitiva en la Universidad Estatal de Boise.
Este artículo se publicó originalmente en The Conversation. Lee el artículo original.