[Imagen: crisfotolux/Adobe Stock; ec0de/Adobe Stock]
Ahora empezamos a externalizar algo mucho más trascendental: no la memoria, ni la orientación, ni la planificación, sino el pensamiento mismo. O, más específico, el esfuerzo de formarse un juicio antes de expresarlo.
Ese es el verdadero cambio cultural que se esconde tras el entusiasmo actual por la IA generativa. A menudo se presenta esta tecnología como una capa de productividad, un potenciador de la creatividad o un asistente universal. Y sí, en muchos casos, es eso. Pero también crea una tentación peligrosa: confundir la producción sin fricciones con la comprensión real, y las respuestas fluidas con el juicio adquirido. Un estudio de Microsoft Research descubrió que una mayor confianza en la IA generativa se asocia con un pensamiento menos crítico, mientras que otro estudio vinculó una mayor dependencia de la IA con un pensamiento menos crítico. Un comentario reciente de Nature Reviews Psychology estableció la distinción a la perfección: las mejoras de rendimiento derivadas de la IA generativa no deben confundirse con el aprendizaje.
Ya he argumentado anteriormente que “la IA no sustituirá la estrategia, sino que la pondrá al descubierto“, y que centrarse en la reducción de costes durante la revolución de la IA es un error estratégico. Esta es la versión cognitiva del mismo desacierto. Cuando las personas tratan la IA como un sustituto del juicio en lugar de una herramienta para perfeccionarlo, no se vuelven más capaces, sino simplemente más dependientes y, en consecuencia, afectamos nuestras funciones cognitivas.
La era de la descarga cognitiva
Los psicólogos lo llaman descarga cognitiva: transferir el trabajo mental a una ayuda externa. Una lista de compras es descarga cognitiva. Una calculadora es descarga cognitiva. También lo son un calendario, una libreta o una aplicación de recordatorios. En ese sentido, no hay nada intrínsecamente nuevo ni siniestro aquí. Los seres humanos siempre han creado herramientas que extienden la mente. Una reciente revisión de Nature Reviews Psychology señala que la descarga puede mejorar el rendimiento en las tareas, aunque también conlleva desventajas. Y una perspectiva más amplia de Nature Human Behaviour argumenta que la tecnología digital puede estar cambiando la cognición sin evidencia clara de un daño generalizado y duradero.
El problema no es la descarga de tareas en sí, sino qué funciones cognitivas dejamos en manos de la inteligencia artificial.
Al externalizar el almacenamiento, ahorramos esfuerzo. Al dejarle a la IA nuestra navegación, reducimos la incertidumbre. Pero al delegarle nuestro juicio, corremos el riesgo de debilitar la facultad que nos permite decidir si la máquina es útil, engañosa, parcial, superficial, manipuladora o simplemente errónea.
Ese riesgo es más importante de lo que muchas organizaciones parecen dispuestas a admitir. Porque la IA generativa no solo responde preguntas: crea una ilusión de competencia tan convincente que puede difuminar la distinción entre “entiendo esto” y “puedo producir algo que parezca comprensión”. Nature revisó recientemente la evidencia sobre la memoria y las herramientas digitales y señaló un punto importante: las afirmaciones más contundentes sobre el deterioro cognitivo suelen ser exageradas. Pero la revisión también destaca que ciertas capacidades pueden alterarse de manera significativa, incluyendo una confianza exagerada y cambios en los patrones de recuerdo. Precisamente por eso, el momento actual merece mayor seriedad de la que suelen mostrar tanto los utópicos como los agoreros.
La fluidez no es cognición
Lo que hace que la IA generativa sea culturalmente desestabilizadora no es solo que sea útil, sino que es fluida.
Una calculadora nunca pretendió entender la aritmética. Tu GPS nunca afirmó saber cómo se siente una ciudad. Los buscadores no hablaban en primera persona ni ofrecían resúmenes convincentes en prosa impecable. La IA generativa hace eso. Produce lenguaje de una manera tan refinada y tan cercana a la retórica humana que resulta fácil confundir la coherencia lingüística con el razonamiento.
Pero una respuesta bien formulada no es lo mismo que una respuesta meditada. Los grandes modelos de lenguaje son asombrosos generadores de patrones, pero carecen de juicio en el sentido humano del término. Como señaló un artículo reciente de la Harvard Business School, la experiencia y el juicio humanos siguen siendo cruciales, ya que la IA no puede distinguir con fiabilidad las ideas verdaderamente buenas de las meramente plausibles, ni puede guiar por sí sola una estrategia a largo plazo. Este argumento no es contrario a la IA, simplemente contrarresta la ingenuidad.
Aquí es donde comienza a surgir la verdadera división. No entre quienes usan IA y quienes no. La división significativa se da entre quienes usan la inteligencia artificial como un apoyo intelectual y quienes la usan como un sustituto del pensamiento.
Los primeros se ven amplificados por ello. Los segundos se van vaciando lentamente a causa de ello.
La educación es donde esto se vuelve imposible de ignorar
Si se quiere comprender claramente la importancia de las implicaciones culturales, basta con observar el ámbito educativo. La inquietud que suscita la IA en las escuelas y universidades suele plantearse en términos de trampas, plagio o integridad en la evaluación. Si bien estos son problemas reales, no son el más profundo.
El problema de fondo es que la inteligencia artificial generativa puede mejorar el rendimiento sin producir aprendizaje.
El informe Perspectivas de la Educación Digital 2026 de la OCDE, que he mencionado en artículos anteriores, es inusualmente explícito al respecto: cuando los estudiantes dan tareas a la IA generativa, sin la debida orientación pedagógica, su rendimiento puede mejorar incluso cuando el aprendizaje real no lo hace. La UNESCO ha planteado un argumento similar en su guía sobre IA generativa en la educación y la investigación, donde advierte que estos sistemas deben utilizarse dentro de un marco centrado en el ser humano y no como atajos para eludir el proceso cognitivo en sí. Además, la OCDE lleva años haciendo hincapié en que la creatividad y el pensamiento crítico no son habilidades ornamentales, sino objetivos educativos fundamentales en una sociedad digital.
Por eso, tanto pánico institucional en torno a la IA no da en el clavo. La verdadera pregunta no es si los estudiantes usarán la IA: ¡por supuesto que sí! La verdadera pregunta es si seguirán teniendo que ejercer su criterio al usarla.
Ya planteé una versión de este argumento anteriormente en “La IA podría transformar la educación… si las universidades dejan de comportarse como gremios medievales“, porque demasiadas instituciones se obsesionan con la vigilancia en lugar de rediseñar el aprendizaje para un mundo donde la externalización cognitiva es ahora la norma. Si los estudiantes pueden generar trabajos aceptables sin esforzarse demasiado en desarrollar ideas, entonces lo que realmente se evalúa no es el aprendizaje, sino el cumplimiento de normas.
La paradoja en la era de la IA
He aquí la paradoja que la mayoría de la gente aún no comprende: quienes más se beneficiarán de la IA no serán quienes la utilicen para todo. Ellos serán quienes sepan cuándo no usarlo.
No se trata de una defensa romántica del pensamiento artesanal, sino de un argumento práctico sobre el apalancamiento. Las personas con buen criterio, un conocimiento profundo del tema y un escepticismo disciplinado pueden usar la inteligencia artificial para avanzar más rápido, sin renunciar a la autoría.
Pueden analizar los resultados, poner a prueba las hipótesis, comparar alternativas y detectar cuándo la máquina pasa por alto la ambigüedad o inventa certezas. Quienes carecen de estos hábitos tienden a aceptar la primera respuesta plausible y seguir adelante.
Los escritos recientes sobre gestión empresarial han comenzado a converger en torno a esta idea. Harvard Business Review (HBR) argumentó que trabajar bien con la IA requiere actuar como un tomador de decisiones en lugar de un usuario pasivo de herramientas. Otro artículo reciente de HBR advierte que si la dicha tencología se encarga del trabajo inicial, a menudo caótico, a través del cual las personas normalmente desarrollan el discernimiento, las organizaciones podrían terminar con trabajadores capaces de producir resultados sin haber desarrollado nunca un juicio crítico. Incluso la investigación sobre creatividad analizada por HBR apunta en la misma dirección: la IA tiende a ayudar más a quienes poseen una metacognición sólida que a quienes carecen de ella.
Lo anterior convierte esto en una cuestión cultural, no solo técnica. No se trata simplemente de integrar una nueva herramienta en los hábitos existentes. Estamos renegociando la relación entre esfuerzo y autoría, entre comodidad y competencia, entre expresión y comprensión.
¿De qué deberíamos preocuparnos realmente?
El error más común en los debates públicos sobre la IA es oscilar entre dos caricaturas. Una afirma que la IA nos volverá estúpidos. La otra sostiene que simplemente nos libera para realizar tareas de mayor complejidad. La realidad es más compleja e interesante.
Bien utilizada, la inteligencia artificial puede reducir considerablemente el trabajo tedioso y propiciar un pensamiento más profundo. Mal utilizada, puede erosionar los hábitos que, en primer lugar, hacen posible un pensamiento más profundo.
Por eso, la respuesta correcta no es ni la prohibición ni la rendición, sino el diseño. Necesitamos sistemas educativos, normas laborales y opciones de productos que preserven el juicio humano en lugar de eludirlo. Son necesarias interfaces que fomenten la verificación, la reflexión y la comparación, en vez de seducir a los usuarios hacia la aceptación pasiva. Debemos dejar de considerar cada reducción del esfuerzo mental como un progreso.
Porque no toda fricción es un desperdicio. Parte de esto es de donde surge la comprensión.
Y ese es el error fundamental que subyace a gran parte del entusiasmo actual por la IA. Nos centramos en la velocidad, la comodidad y el volumen, descuidando una cuestión mucho más compleja: ¿En qué tipo de mentes nos están convertiendo estos sistemas?
Esa es la pregunta que debería definir esta fase de la era de la IA: no si las máquinas pueden pensar como nosotros, sino si, al depender de ellas sin cuidado, podríamos dejar de pensar como nosotros mismos.
El futuro no pertenecerá a quienes más utilicen la IA, sino a quienes sepan cuándo no usarla.
![[Foto original: Chuotanhls/Pixabay]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/03/25154841/6.jpg)
![[Ilustración original: Freepik ]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/03/25141835/p-91455821-what-to-do-about-work-stress.webp)
![[Foto: Cortesía]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/03/25123340/IA-97.jpg)