[Fuente de las imágenes: klyaksun/Getty Images; Wladimir Bulgar/Getty Images]
Hace unos meses, estaba tumbada en la cama, sujetando el celular con suavidad, cuando Instagram Reels me mostró un video corto que prometía una telenovela imposible: gatos animados —caras felinas pero cuerpos inconfundiblemente humanos— viviendo vidas aparentemente humanas, incluso en una casa que parecía humana y también, por alguna razón totalmente incomprensible, en una obra en construcción que también parecía humana. Había drama: una gata parecía estar preñada. Además, de alguna manera, había un triángulo amoroso relacionado con dos gatos machos mucho más musculosos que competían por su afecto. Ninguno de los gatos hablaba. Sin embargo, la trama avanzaba, y uno de los gatos se ganaba el corazón de la protagonista. Estaba bien hecho. Era absurdamente ridículo.
“Basura de IA” se ha convertido en nuestra forma abreviada de referirnos a la basura digital de formato corto. Específicamente, el término “basura” evoca una sustancia líquida y derrochadora que amenaza con inundarlo todo. Usamos esta descripción porque el contenido que produce la inteligencia artificial (IA) suele ser de baja calidad, vulgar, estúpido e incluso nihilista. ¿Qué defensa decente se puede presentar para el video que acabo de describir, al menos según mi memoria, corroída por la contaminación digital? Este contenido es repugnante, en efecto, tonto. Y se está extendiendo por todas partes.
Lo que está haciendo la IA con internet
El término “IA de baja calidad” no surgió de la inteligencia artificial en general. —La inteligencia artificial tiene un amplio alcance, pero el término existe desde hace algunas décadas y suele asociarse con el aprendizaje automático—. Concretamente, el término nació alrededor de 2023, tras el auge de la IA generativa, cuando plataformas como ChatGPT y Dall-E se hicieron públicas, según Google Trends. De repente, cualquier usuario de internet podía generar todo tipo de contenido.
Mientras las empresas de IA definen su modelo de negocio —¡están trabajando en ello!—, el público de internet se ha visto obligado a navegar por un sistema de IA subvencionado y sin control, donde podemos generar cualquier cosa con tan solo unas palabras clave y un chatbot. Claro que, con la producción en masa, llega el excedente y, por consiguiente, la basura. Recogemos la basura en contenedores porque, de lo contrario, los residuos se esparcen por todas partes y lo deterioran todo. Podría decirse que la IA está haciendo lo mismo en internet. Es evidente que consideramos gran parte de la IA como basura, aunque no hacemos mucho por limpiarla.
El problema salió de la web
Ya existen claros indicios de contaminación. La llegada de contenido generado por IA a bajo costo ha dejado obsoleta una categoría de periodismo digital sensacionalista: descubrir una tendencia online extravagante o preocupante y publicarla rápidamente sin verificarla. Fox News publicó recientemente un intento de este tipo de periodismo digital —durante el confinamiento, con el objetivo de desacreditar a los beneficiarios del Programa de Asistencia Nutricional Suplementaria (SNAP)—, para luego emitir una aclaración tras descubrir que los videos habían sido creados por IA. La confusión también se da en sentido contrario: mientras leía una pista, el presentador de Jeopardy!, Ken Jennings, fue criticado recientemente por describir algo como generado por IA cuando, en realidad, no lo era.
El problema ha alcanzado incluso a los multimillonarios. Tras la victoria de Zohran Mamdani en las elecciones a la alcaldía de Nueva York, el financiero Bill Ackman compartió un video de Elon Musk hablando sobre el alcalde electo. Musk “es el portavoz. Es brillante, increíblemente elocuente y muy acertado”, dijo Ackman sobre el video. Sin embargo, la sección de notas de la comunidad de X confirmó que el video de Musk era de IA. La entrada en las notas remitía a los productores del video, quienes aclaran que su canal no está afiliado al ejecutivo de SpaceX.
Obras maestras escondidas entre la basura
Deni Ellis Béchard, redactor de tecnología en Scientific American, advirtió recientemente que el desafío del contenido cultural producido en masa no es nuevo: las tecnologías innovadoras siempre impulsan nuevas formas de arte, pero también una abundancia de contenido insípido. Esto también ocurrió con la imprenta, internet y el cine, explica. “En todos estos casos, el objetivo no era crear obras maestras, sino producir de forma rápida y económica”, escribe. “Pero la producción de nuevos tipos de contenido mediocre amplía las vías de acceso, permitiendo la participación de más personas, del mismo modo que internet y las redes sociales dieron origen a contenido basura, pero también a nuevos tipos de creadores. Quizás porque gran parte de la cultura producida en masa se ha vuelto olvidable, la obra original destaca aún más sobre un fondo de monotonía, y el público empieza a demandar más”.
Sin duda, el mundo de la creación masiva de IA inevitablemente contará con algunas verdaderas joyas. Incluso obras maestras de la IA. Pero existen consecuencias reales y desafortunadas cuando lo real se mezcla con lo falso, incluso más de las que ya existían. Claro, hay razones para pensar que la búsqueda de una verdad objetiva es inútil. Pero la alternativa es una confusión corrosiva y estructural. El riesgo no es que pasemos por alto las joyas de la IA ocultas bajo la mediocridad, sino que nosotros mismos nos ahoguemos en ella.
Internet está invadido de bots
Puede que incluso estemos empañando el panóptico digital. Se ha vuelto completamente normal saber bastante sobre la vida de alguien a través de sus redes sociales. Pero hoy, al menos, mis Reels de Instagram están repletos de videos extraños —aunque, me duele admitirlo, fascinantes— generados por IA. Estos videos son ciertamente menos comunes en la clásica cuadrícula de fotos de la plataforma, pero esta nos está empujando hacia los videos cortos, donde este tipo de contenido prolifera.
Llegará un momento en que la IA superará la actividad humana orgánica en internet. Como observó Axios, la web se convertirá en una plataforma de bots, en lugar de una plataforma de persona a persona. Esto, por supuesto, es difícil de medir: la clave está en que los bots intenten suplantar la identidad de los humanos.
Sin embargo, una empresa de ciberseguridad descubrió recientemente que 51% del contenido de internet es generado por bots. El año pasado, un análisis publicado por Wired reveló que, durante varias semanas, 47% de las publicaciones de Medium parecían ser generadas por IA. A la dirección de la empresa no parecía importarle en absoluto, siempre y cuando la gente no leyera ese contenido.
Pero incluso si no leemos esa basura, sigue introduciendo una nueva fuente de duplicidad en nuestro conocimiento colectivo en línea. Eventualmente, la misma confusión afectará también a las máquinas. Un estudio publicado en Nature a principios de este mes reveló que la IA puede tener problemas con un sesgo de atribución significativo. Peor aún:
También observamos que, si bien los modelos recientes demuestran competencia en tareas de conocimiento recursivo, aún se basan en estrategias de razonamiento inconsistentes, lo que sugiere una identificación superficial de patrones en lugar de una comprensión epistémica sólida. La mayoría de los modelos carecen de una comprensión sólida de la naturaleza factiva del conocimiento, es decir, que el conocimiento requiere inherentemente verdad. Estas limitaciones exigen mejoras urgentes antes de implementar modelos de lenguaje en ámbitos críticos donde las distinciones epistémicas son cruciales.
Las empresas han desarrollado potentes sistemas de reconocimiento facial recopilando imágenes de rostros publicadas en redes sociales para entrenar algoritmos de detección. Sin embargo, los rostros generados por IA podrían complicar esta metodología. Hace unos meses, FedScoop informó que Clearview AI, una operación distópica que recopiló cientos de millones de imágenes de redes sociales para crear un modelo de reconocimiento facial de alta precisión y luego vender esa tecnología al gobierno, pretendía desarrollar un detector de deepfakes.
LinkedIn anunció recientemente que ahora utiliza datos de su plataforma para mejorar los modelos de IA generativa de Microsoft, aunque gran parte del sitio ya suena como un bot de IA —¿Lo es? ¡No tenemos forma de medirlo!—. Las empresas de IA han explorado el uso de datos sintéticos para entrenar sistemas: ¿una estrategia razonable? Tal vez, en algunos contextos. Pero también parece una mala idea.
El colapso del modelo de IA
De hecho, existen numerosas preocupaciones sobre la autocontaminación de la IA. Por ejemplo, preocupa seriamente un fenómeno denominado colapso del modelo. Otro estudio publicado el año pasado en Nature reveló que “el uso indiscriminado de contenido generado por el modelo durante el entrenamiento provoca defectos irreversibles en los modelos resultantes”. Existe la posibilidad de crear un bucle de retroalimentación en la IA, corrompiendo los datos humanos reales y fidedignos que, en conjunto, se suponía que harían de esta tecnología un elemento tan potente. En medio de los elogios desmesurados que se prodigan a las empresas de IA, la mala calidad de sus datos también parece ser un problema para ellas.
El peor escenario posible se asemeja al Síndrome de Kessler, un término sofisticado para describir cómo la humanidad está contaminando el espacio exterior. En la órbita terrestre baja, la basura espacial —incluidos muchos satélites inactivos— choca frecuentemente con otra basura, generando colisiones potentes que producen aún más basura espacial, lo que hace que todo el espacio sea más turbio y mucho más difícil de navegar y utilizar. Un futuro similar podría aguardar a la inteligencia artificial: un caos caótico de creaciones y detecciones de IA, todas entrenadas con datos cada vez más contaminados por la propia IA.
Cuando uno se descuida, sus palabras se vuelven confusas y empieza a tropezar. La IA puede ser igualmente falible.
![[Foto: Freepik]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2025/11/11104653/duelo-trabajo-afrontarlo-fastcompanymexico.webp)
![[Imágenes de origen: Igor/Adobe Stock]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2025/11/11103245/p-1-91432655-footwear-collective.webp)
![[Foto base: Revolut]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2025/11/12092327/revolut-beta-mexico.png)