[Imagen generada con IA]
Un nuevo estudio publicado hoy en Nature ha descubierto que el algoritmo de X —el sistema oculto o “receta” que determina qué publicaciones aparecen en tu feed y en qué orden— cambia las opiniones políticas de los usuarios en una dirección más conservadora.
Dirigido por Germain Gauthier, de la Universidad Bocconi de Italia, se trata de un estudio experimental aleatorio, poco común y real, sobre una importante plataforma de redes sociales. Se basa en un creciente corpus de investigación que demuestra cómo estas plataformas pueden influir en las actitudes políticas de las personas.
Dos algoritmos diferentes
Los investigadores asignaron aleatoriamente a 4,965 usuarios activos de X en Estados Unidos a uno de dos grupos.
El primer grupo usó la sección “Para ti” predeterminada de X. Esta cuenta con un algoritmo que selecciona y clasifica las publicaciones con las que cree que los usuarios tendrán más probabilidades de interactuar, incluyendo publicaciones de cuentas que no necesariamente siguen.
El segundo grupo utilizó un feed cronológico. Este solo muestra las publicaciones de las cuentas que siguen los usuarios, en el orden en que se publicaron. El experimento duró siete semanas en 2023.
Los usuarios que cambiaron del feed cronológico al feed “Para ti” mostraron una probabilidad 4.7% mayor de priorizar temas políticos defendidos por los republicanos estadounidenses —por ejemplo, delincuencia, inflación e inmigración—. También mostraron una mayor probabilidad de considerar inaceptable la investigación criminal contra el presidente estadounidense Donald Trump.
También adoptaron una postura más prorrusa con respecto a la guerra en Ucrania. Por ejemplo, estos usuarios mostraron una probabilidad 7.4% menor de tener una opinión positiva del presidente ucraniano, Volodímir Zelenski, y obtuvieron una puntuación ligeramente superior en el índice general de actitud prorrusa.
Los investigadores también examinaron cómo el algoritmo producía estos efectos.
Encontraron evidencia de que el algoritmo incrementó la proporción de contenido de tendencia derechista en 2.9 puntos porcentuales en general —y 2.5 puntos entre las publicaciones políticas—, en comparación con el feed cronológico.
También degradó significativamente la proporción de publicaciones de las cuentas de organizaciones de noticias tradicionales, al tiempo que promovió o impulsó publicaciones de activistas políticos.
Uno de los hallazgos más preocupantes del estudio son los efectos a largo plazo del feed algorítmico de X. El estudio demostró que el algoritmo incitó a los usuarios a seguir cuentas más derechistas, y que los nuevos patrones de seguimiento persistieron incluso después de volver al feed cronológico.
En otras palabras, desactivar el algoritmo no solo “reinicié” lo que la gente ve. Tuvo un impacto más duradero, más allá de sus efectos cotidianos.
Una pieza de un panorama mucho más amplio
Este nuevo estudio respalda los hallazgos de estudios similares.
Por ejemplo, un estudio realizado en 2022, antes de que Elon Musk comprara Twitter y lo rebautizara como X, descubrió que los sistemas algorítmicos de la plataforma amplificaban el contenido de la derecha política dominante más que el de la izquierda en seis de los siete países.
Un estudio experimental de 2025 reorganizó los feeds de X para reducir la exposición a contenido que expresa actitudes antidemocráticas y animosidad partidista. Descubrieron que esto modificaba los sentimientos hacia sus oponentes políticos en más de dos puntos en un termómetro de sentimientos de 0 a 100. Según los autores, este cambio habría tardado unos tres años en producirse de forma natural en la población general.
Mi propia investigación ofrece otra prueba de este panorama de sesgo algorítmico en X. Junto con mi colega Mark Andrejevic, analicé datos de participación —como “me gusta” y “reposts“— de cuentas políticas destacadas durante las etapas finales de las elecciones estadounidenses de 2024.
Nuestros hallazgos revelaron un aumento repentino e inusual en la interacción con la cuenta de Musk tras su apoyo a Trump el 13 de julio, el día del intento de asesinato de este. Las visualizaciones de las publicaciones de Musk aumentaron un 138%, los retuits un 238% y los me gusta un 186%. Esto superó con creces los aumentos en otras cuentas.
Después del 13 de julio, las cuentas de derecha en X ganaron mucha más visibilidad que las progresistas. A partir de entonces, el terreno de juego para la atención y la interacción en la plataforma se inclinó hacia las cuentas de derecha, una tendencia que se mantuvo durante el resto del período analizado en dicho estudio.
No es un producto de nicho
Esto es importante porque no estamos hablando de un producto de nicho.
X tiene más de 400 millones de usuarios en todo el mundo. Se ha integrado como infraestructura, una fuente clave de comunicación política y social. Y una vez que los sistemas técnicos se convierten en infraestructura, pueden volverse invisibles, como objetos de fondo en los que apenas pensamos, pero que configuran la sociedad en sus cimientos y pueden ser explotados ante nuestras narices.
Piensen en los puentes elevados que Robert Moses diseñó en Nueva York en la década de 1930. Parecían objetos inertes. Pero fueron diseñados para ser muy bajos, para impedir que las personas de color tomaran autobuses hacia las zonas recreativas de Long Island.
De manera similar, el diseño y la gobernanza de las plataformas de redes sociales también tienen consecuencias reales.
La cuestión es que los algoritmos de X no son herramientas neutrales. Son una fuerza editorial que moldea lo que la gente sabe, a quién presta atención, quién es el exogrupo y qué deberíamos hacer con ellos y, como demuestra este nuevo estudio, lo que la gente llega a creer.
La era de confiar en la palabra de las plataformas sobre el diseño y los efectos de sus propios algoritmos debe llegar a su fin. Los gobiernos de todo el mundo —incluido Australia, donde el Comisionado de Seguridad Electrónica tiene la facultad de impulsar la transparencia y la rendición de cuentas algorítmicas y exigir que las plataformas informen sobre cómo sus algoritmos contribuyen a los daños o los reducen— deben exigir una transparencia genuina sobre el funcionamiento de estos sistemas.
Cuando la infraestructura se vuelve dañina o insegura, nadie se inmuta cuando los gobiernos toman medidas para protegernos. Es urgente que ocurra lo mismo con las infraestructuras de las redes sociales.
Timothy Graham es profesor asociado de Medios Digitales en la Universidad Tecnológica de Queensland.
Este artículo fue publicado originalmente en The Conversation.
![[Foto original: Freepik ]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/03/06083610/p-91499535-how-paralympians-inspire-the-workplace.webp)
![[Imágenes: Justin Sullivan/Getty Images, Adobe Stock]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/03/06080454/Despidos-tecnologia-finanzas-Fast-Company-Mexico-Cortesia.webp)
![Una fragata de misiles guiados escolta a un buque de transporte petrolero en el Estrecho de Ormuz.[Foto original: Terry Cosgrove/Wikimedia Commons]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/03/05115015/5.jpg)