
Los extremistas de ultraderecha ya aprovechan la función “usar este sonido” en los audios de TikTok como un caballo de Troya para difundir discursos de odio. Además, la mayoría de los videos que contienen este tipo de contenido permanecen en línea durante meses, según una nueva investigación publicada en arXiv, el servidor de preprints de la Universidad de Cornell.
Marloes Geboers, de la Universidad de Ámsterdam, y Marcus Bösch, de la Universidad Heinrich Heine de Düsseldorf, recopilaron miles de clips de los feeds de TikTok en Alemania, Reino Unido y Países Bajos. Descubrieron que más de tres cuartas partes de los videos que utilizan audios extremistas seguían siendo accesibles cuatro meses después de ser capturados.
Bösch cuenta que el proyecto comenzó cuando una conocida pista de synth-pop lo “transportó directamente a los años noventa”. “Unos amigos tenían una canción nazi en un casete real”, relata. “Treinta años después estaba en TikTok, y los chicos se grababan caminando a la escuela con esa música de fondo”.
Rastrear esa canción en TikTok llevó a los investigadores a docenas de tendencias en las que memes aparentemente inofensivos —como los que invitan a adivinar qué parte de una canción viene después— ocultaban lo que Bösch describe como “letras brutales, racistas, misóginas y con fantasías de muerte”. Luego crearon cuentas nuevas en TikTok, entrenadas para seguir contenido de derecha en los tres países, y comenzaron a buscar publicaciones extremistas.
Su investigación reveló creadores extremistas que vinculaban mensajes de odio con todo tipo de canciones. Había contenido, desde clásicos del club como los de Gigi D’Agostino o Aqua, hasta música folclórica o incluso pistas generadas por inteligencia artificial dirigidas a audiencias específicas. “Hay tecno nazi, pop nazi, folk nazi… hay para todos los gustos”, explica Bösch. El objetivo era guiar a los usuarios hacia contenido fuera de la plataforma destinado a adoctrinarlos en la ideología nazi. El equipo verificó los videos marcados dos y cuatro meses después de su detección para comprobar si seguían en línea.
¿Qué pasa con la moderación de estos audios de ultraderecha en TikTok?
TikTok parece tener dificultades para moderar contenido de odio basado en audio. Los datos de la plataforma indican que los insultos en texto suelen eliminarse rápidamente. Sin embargo, 86% de los videos que usaban una canción racista que los autores denominan “Türke” seguían activos meses después. Incluso material abiertamente ofensivo puede pasar desapercibido. Bösch cuenta que se “topó con un discurso de Hitler” reutilizado en más de mil videos, a menudo acompañado de imágenes de propaganda nazi. “No se puede decir que sea difícil de ver, oír o sentir”, afirma. “No debería ser tan complicado encontrar este contenido”.
En una declaración a Fast Company, un portavoz de TikTok afirmó que la empresa emplea una combinación de tecnología y moderadores humanos para detectar y eliminar contenido que promueve discursos de odio o ideologías de odio. Además, aseguró que 94% de este contenido se elimina antes de reportarse. “Reforzamos constantemente nuestra aplicación de políticas actualizando nuestras herramientas de detección, consultando con expertos y colaborando con organizaciones locales”, añadió el portavoz.
Aunque Bösch reconoce los desafíos que implica moderar una plataforma de la escala de TikTok, cree que se puede hacer más. “Si un tribunal alemán ha prohibido una canción, no debería ser tan difícil intentar prohibir esa canción”, concluye.