[Ilustración de origen: Freepik]
Suelo escribir sobre inteligencia artificial (IA) desde la perspectiva de la vanguardia, analizando cómo los periodistas y las empresas de medios utilizan la tecnología para cambiar su forma de trabajar, llegar a nuevas audiencias y transformar sus organizaciones. Pero la realidad es que existe un estigma en torno al uso en el periodismo. En conversaciones con reporteros y editores en activo, es evidente que aún existe mucha reticencia, si no un rechazo manifiesto, hacia el uso de la IA en prácticamente cualquier aspecto de su trabajo.
Sin embargo, al observar la cobertura reciente sobre periodistas que utilizan IA, podría pensarse que parte de ese desdén está desapareciendo. El Wall Street Journal publicó recientemente un artículo sobre cómo el editor de negocios de Fortune, Nick Lichtenberg, utiliza la IA para potenciar su productividad, llegando a escribir hasta siete artículos en un solo día. Ese mismo día Wired destacó cómo varios reporteros prominentes, incluidos periodistas independientes como Alex Heath y Taylor Lorenz, así como Kevin Roose de The New York Times, utilizan la IA en diversas tareas editoriales, a veces incluso en la redacción misma.
Con todo esto, da la sensación de que se ha roto una represa, y no creo que sea casualidad que esté ocurriendo al mismo tiempo que Claude Cowork (que pone la IA de agentes increíblemente potente al alcance de todos) ha transformado el panorama de la IA. (Un detalle interesante, oculto entre toda esta cobertura sobre el uso de la IA por parte de los periodistas, es que parece que Claude se está convirtiendo rápidamente en lo que el Mac se convirtió entre los profesionales de los medios: la plataforma preferida por los creativos que “saben más”).
Una historia aleccionadora en forma de copiar y pegar
Sin embargo, si bien la relación entre periodistas e inteligencia artificial se estaba estrechando, la semana pasada sufrió un duro revés cuando The New York Times rompió relaciones con un escritor independiente que había presentado una reseña de un libro escrita, al menos en parte, por IA. La reseña de Alex Preston, publicada a principios de enero, incluía pasajes casi idénticos a la reseña del mismo libro que Christobel Kent había publicado meses antes en The Guardian.
Preston admitió haber utilizado IA para redactar la reseña de su libro, reconociendo que había cometido un grave error. Si bien este incidente es sin duda una llamada de atención para el Times (y no necesariamente la primera) sobre cómo comunica su política de IA a los colaboradores independientes, también representa una clara señal de alarma para cualquier redacción que se sienta tentada a permitir un mayor uso de la IA en sus operaciones. De repente, surge un error que parece justificar todas las normas en su contra.
Por eso es importante afrontarlo directamente. El incidente nos lleva de nuevo al oscuro laberinto de los escándalos de IA en los medios de comunicación, desde el periodismo de servicio automatizado de CNET hasta los títulos de libros inventados en la “lista de lectura de verano” del Chicago Sun-Times del año pasado. Amenaza con socavar todos los avances que muchos periodistas y redacciones están logrando en productividad, optimización de contenido y más, y podría incitar a quienes dan sus primeros pasos con la IA a recurrir a la regla fácil y generalizada de “simplemente no la uses”.
¿Plagio descarado?
Por eso es importante analizar detenidamente cómo se utilizó la IA para poder distinguir mejor entre un buen y un mal uso de la misma. Es fácil decir que no hubo suficiente intervención humana (un término cada vez menos útil), pero ¿en qué parte del proceso? ¿En las indicaciones, la verificación de datos, o en algún otro aspecto?
El objetivo principal de la IA es delegar parte de la toma de decisiones humanas a máquinas sofisticadas, así que, en lugar de señalar lo obvio (que los humanos necesitan configurar y supervisar el proceso), es mejor centrarse en las decisiones específicas que se le pidieron a la IA y si el humano proporcionó los parámetros y restricciones adecuados.
Al examinar esto detenidamente, la respuesta parece ser definitivamente no. Según el artículo de The Guardian, las dos reseñas tienen un lenguaje inquietantemente similar, tan parecido que es difícil descartar el plagio descarado. Observen estos dos fragmentos:
- Reseña original, publicada el 21 de agosto de 2025: “Sobre todo, una canción de amor a un país de contradicciones, maltratado, devastado por la guerra, dividido, desorientado y milagroso: una Italia donde la vida es disfraz y la representación artística, y donde los circos surgen en terrenos baldíos”.
- Reseña del Times, publicada el 6 de enero de 2026: “Puebla lo que en última instancia es una canción de amor a un país de contradicciones: maltratado, dividido, desorientado y milagroso. Esta es una Italia donde la vida es un espectáculo, donde los circos se alzan sobre terrenos baldíos”.
El error está en cómo se generó el texto
Si observamos las fechas y las innegables similitudes, podemos llegar a algunas conclusiones. Es evidente que Preston solicitó, directa o indirectamente, a la IA que creara el texto que pretendía incluir en el artículo, y no solo basándose en sus notas. Dado que las dos reseñas se publicaron con cuatro meses de diferencia (y considerando el proceso de edición, generalmente largo, del Times, es probable que lo haya enviado mucho antes), es casi seguro que no hubo tiempo suficiente para que se actualizaran los datos de entrenamiento de la IA. Esto significa que la herramienta de IA que utilizó incorporó búsquedas web (también conocidas como RAG) para generar el texto.
Fue un error. Siendo indulgentes con Preston, es posible que no le haya indicado deliberadamente a la IA que sintetizaba otras reseñas del libro, y que esta haya seleccionado la reseña de The Guardian por su cuenta. Pero sin duda no le indicó a la IA que no lo hiciera, lo cual parece ser fundamental si se quiere evitar el texto plagiado que terminó incluyendo.
De tabú a herramienta
Vale la pena reiterarlo: en muchos casos, si no en la mayoría, la forma en que se usa la IA importa más que el hecho de usarla o no. Esto requiere comprender a fondo las capacidades y los riesgos de estas herramientas, ser meticuloso con los parámetros de las indicaciones y estar dispuesto a adaptar el proceso continuamente. Es un proceso constante que necesita límites, como comandos de “siempre” y “nunca” para evitar problemas específicos y la verificación de datos (por parte de humanos). De lo contrario, se corre el riesgo de tener consecuencias desastrosas.
Existen salvaguardias sistémicas que van más allá de las técnicas sencillas. Tanto si eres un escritor independiente como si formas parte de una redacción, conviene tener una política de IA. Como formador en IA para medios de comunicación, por supuesto que recomiendo invertir en formación, pero creo que sigue siendo una buena idea desde un punto de vista objetivo. Sin embargo, lo más importante es que el proceso de ensayo y error que implica definir los límites de una “buena IA” debe mantenerse fuera de la vista pública, si es posible. En el caso de la escritura asistida por IA, es fundamental desarrollar las indicaciones y las medidas de seguridad en un entorno de prueba privado.
Puede parecer obvio, pero parte de la “magia” de la IA reside en que crea resultados que parecen idénticos a los creados por humanos tras un riguroso proceso. Para el ojo inexperto, la apariencia de competencia resulta suficiente. Aprovechar el potencial de la IA como aliada en la escritura y el periodismo implica no solo confiar en el proceso subyacente, sino también asumir el rol de construirlo, probarlo y ajustarlo según sea necesario. Cuanto más lo hagan los periodistas, más se disipará el estigma.
![[Imagen: Freepik]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/04/17102523/Contaminacion-calles-Fast-Company-Mexico-Cortesia.jpg)
![[Imagen: a18947/Pixabay]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/04/17093644/ticketmaster-chatgpt.jpg)
![[Imagen generada con IA]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/04/17095734/Copilot_20260417_235722.png)