Hace tiempo los educadores se preocupaban por los peligros de los CliffsNotes—guías de estudio que resumían grandes obras literarias en una serie de puntos clave que muchos estudiantes usaban como sustituto en vez de leer realmente un libro.
Hoy eso parece una anécdota de otra época.
De repente, llegaron nuevas herramientas de IA para consumidores que pueden tomar cualquier texto, audio o video y proporcionar un resumen simplificado de la misma manera. Y esos resúmenes no son solo una serie de puntos rápidos. Hoy en día, los estudiantes pueden usar herramientas como Google’s NotebookLM para convertir sus notas de clase en un podcast, donde bots de IA con voz amigable interactúan y comentan los puntos clave. La mayoría de estas herramientas son gratuitas y realizan su trabajo en segundos con solo hacer clic en un botón.
Cuando se trata de herramientas para estudiar, ¿la IA es amiga o enemiga?
Naturalmente, esto está causando preocupación entre algunos educadores, que ven cómo los estudiantes están delegando el trabajo duro de sintetizar información a la IA a un ritmo nunca antes posible.
Sin embargo, el panorama es más complicado, especialmente a medida que estas herramientas se vuelven más populares y su uso comienza a estandarizarse en el mundo empresarial y en otros contextos fuera del aula.
Y estas herramientas son un salvavidas particular para los estudiantes neurodivergentes, que ahora tienen acceso a servicios que pueden ayudarles a organizarse y apoyar su comprensión lectora, según los expertos en educación.
“No hay una respuesta universal”, dice Alexis Peirce Caudell, profesora de informática en la Universidad de Indiana en Bloomington, quien recientemente realizó una tarea en la que muchos estudiantes compartieron sus experiencias y preocupaciones sobre las herramientas de IA. “Los estudiantes de biología las van a usar de una manera, los estudiantes de química de otra. Mis estudiantes las usan de formas diferentes”.
No es tan simple asumir que todos los estudiantes son tramposos, enfatizó la instructora.
“Algunos estudiantes se preocupan por la presión de usar estas herramientas—si todos sus compañeros lo están haciendo, deberían hacerlo también; aunque sienten que eso está impidiendo su aprendizaje auténtico,” dijo. Se hacen preguntas como: “¿Me está ayudando esto a pasar este examen o tarea en particular porque estoy tratando de navegar entre cinco clases y solicitudes para prácticas?”. Pero, ¿a costa del aprendizaje real?
Todo esto agrega nuevos desafíos para las escuelas y universidades que intentan establecer límites y políticas para el uso de la IA en sus aulas.
La necesidad de “fricción” en cuanto al estudio
Parece que casi todas las semanas—o incluso todos los días—las compañías tecnológicas anuncian nuevas características que los estudiantes están adoptando en sus estudios.
La semana pasada, por ejemplo, Apple lanzó las funciones de Apple Intelligence para iPhones y una de ellas puede modificar cualquier texto para darle diferentes tonos, como casual o profesional. El mes pasado, el creador de ChatGPT, OpenAI, lanzó una función llamada Canvas, que incluye barras deslizantes para que los usuarios cambien instantáneamente el nivel de lectura de un texto.
Marc Watkins, profesor de escritura y retórica en la Universidad de Mississippi, dice que le preocupa que los estudiantes estén atraídos por las promesas de ahorro de tiempo de estas herramientas y no se den cuenta de que usarlas puede significar saltarse el trabajo real necesario para internalizar y recordar el material.
“Desde el punto de vista de la enseñanza y el aprendizaje, eso me preocupa bastante,” dice. “Porque queremos que nuestros estudiantes luchen un poco, que tengan algo de fricción, porque eso es importante para su aprendizaje”.
El profesor agregó que las nuevas características están haciendo más difícil para los profesores alentar a los estudiantes a usar la IA de maneras útiles—como enseñarles a crear comandos para cambiar el nivel de escritura de un texto: “Elimina ese último nivel de dificultad deseable cuando pueden solo presionar botones y obtener un borrador final y recibir retroalimentación sobre ese borrador final también.”
Es necesario crear nuevas políticas del uso de la IA en universidades
Incluso los profesores y universidades que han adoptado políticas de IA tienen que repensarlas a la luz de estas nuevas capacidades.
Como dijeron dos profesores en un reciente artículo de opinión: “Tu política de IA ya está obsoleta.”
“Un estudiante que lee un artículo que subiste, pero que no recuerda un punto clave, usa el asistente de IA para resumir o recordar dónde leyó algo. ¿Esta persona usó la IA cuando estaba prohibida en la clase?” preguntaron los autores, Zach Justus, director de desarrollo docente en la Universidad Estatal de California, Chico, y Nik Janos, profesor de sociología allí.
Los autores señalaron que herramientas populares como Adobe Acrobat ahora tienen características de “asistente de IA” que pueden resumir documentos con solo presionar un botón.
“Incluso cuando estamos evaluando a nuestros compañeros para promociones y condiciones de estabilidad laboral”, escribieron los profesores, “¿es necesario prometer que no se presionará el botón cuando estamos revisando cientos de páginas de evaluaciones de enseñanza de estudiantes?”
En lugar de redactar y redactar políticas de IA, los profesores argumentan que los educadores deberían trabajar en marcos generales sobre qué tipo de ayuda de los chatbots es aceptable.
Pero Watkins insta a los creadores de herramientas de IA a hacer más para mitigar el mal uso de sus sistemas en entornos académicos, o como dijo cuando habló con EdSurge: “Asegurarse de que esta herramienta, que está siendo tan utilizada por los estudiantes, sea realmente efectiva para su aprendizaje y no solo una herramienta para delegarlo”.
Exactitud desigual
Estas nuevas herramientas de IA presentan una serie de nuevos desafíos más allá de los que existían cuando los CliffsNotes impresos eran la herramienta de estudio de moda.
Uno de ellos es que las herramientas de resumen de IA no siempre proporcionan información precisa, debido a un fenómeno de los grandes modelos de lenguaje conocido como “alucinaciones”, cuando los chatbots adivinan hechos pero los presentan a los usuarios como certezas.
Cuando Bonni Stachowiak probó por primera vez la función de podcast de Google’s NotebookLM, por ejemplo, dijo que quedó impresionada por lo realistas que sonaban las voces de los robots y lo bien que parecían resumir los documentos que les proporcionaba. Stachowiak es la anfitriona del podcast de larga data Teaching in Higher Ed y directora de enseñanza y aprendizaje en la Universidad Vanguard de California del Sur; regularmente experimenta con nuevas herramientas de IA en su enseñanza.
Pero, a medida que usaba más la herramienta y ponía documentos sobre temas complejos que conocía bien, notó errores o malentendidos ocasionales. “Simplemente lo aplana y pierde toda esa sutileza,” dijo. “Suena tan íntimo porque es una voz y el audio es un medio tan cercano. Pero tan pronto como se trata de algo que conoces mucho, va a fallar.”
Aun así, dijo que encontró útil la función de podcasting de NotebookLM para ayudarla a entender y comunicar cuestiones burocráticas en su universidad, como convertir parte del manual de la facultad en un resumen en podcast. Cuando lo verificó con colegas que conocían bien las políticas, dijo que sintieron que hacía un “trabajo bastante bueno.”
“Es muy buena para hacer que la burocracia bidimensional sea más accesible,” expresó.
Las cuestiones éticas de la IA y sus muchos beneficios para los estudiantes neurodiversos
Peirce Caudell, de la Universidad de Indiana, dice que sus estudiantes también han planteado cuestiones éticas sobre el uso de herramientas de IA.
“Algunos dicen que están realmente preocupados por los costos ambientales de la IA generativa y su uso,” dijo, señalando que ChatGPT y otros modelos de IA requieren grandes cantidades de energía y poder de cómputo.
Otros, se preocupan por cuántos datos están proporcionando a las empresas de IA, agregó. Especialmente cuando los estudiantes usan versiones gratuitas de las herramientas.
“No estamos teniendo esa conversación,” dijo. “No estamos hablando sobre qué significa resistirse activamente al uso de la IA generativa.”
A pesar de todo, la instructora está viendo impactos positivos para los estudiantes, como cuando usan una herramienta para ayudarles a crear tarjetas didácticas para estudiar.
Escuchó sobre un estudiante con TDAH que siempre había encontrado abrumador leer un texto largo, pero usaba ChatGPT “para superar el obstáculo de ese primer compromiso con la lectura y luego verificaba su comprensión con el uso de ChatGPT.”
Stachowiak dice que ya escuchó sobre otras herramientas de IA que los estudiantes con discapacidades intelectuales están usando, como una que ayuda a los usuarios a dividir tareas grandes en subtareas más pequeñas y manejables.
“Esto no es hacer trampa,” enfatizó. “Es desglosar las cosas y estimar cuánto tiempo tomará algo. Eso no es algo que le resulte natural a muchas personas”.