ADVERTISEMENT

| Tech

Las granjas de bots invaden las redes sociales para secuestrar el sentimiento popular

Los gobiernos, influencers financieros y famosos están usando granjas de bots para promover narrativas fabricadas en redes sociales

Las granjas de bots invaden las redes sociales para secuestrar el sentimiento popular [Photo: Milen/Adobe Stock]

Bienvenido al mundo del control mental en redes sociales. Al amplificar la libertad de expresión con discursos falsos, puedes adormecer tu cerebro y hacerte creer prácticamente cualquier cosa. Abandona tu dichosa ignorancia y tómate la pastilla roja. Estás a punto de descubrir cómo los maestros modernos del engaño manipulan tu pensamiento con granjas de bots.

Los métodos por los cuales la información se introduce en nuestra psique se han automatizado. Las mentiras son cosa del pasado. El problema de hoy es el uso de granjas de bots para engañar a los algoritmos de las redes sociales y hacer que la gente crea que esas mentiras son ciertas. Una mentira repetida con la suficiente frecuencia se convierte en verdad.

“Sabemos que China, Irán, Rusia, Turquía y Corea del Norte están utilizando redes de bots para amplificar narrativas en todo el mundo”, afirma Ran Farhi, CEO de Xpoz, una plataforma de detección de amenazas que descubre intentos coordinados de difundir mentiras y manipular la opinión pública en política y otros ámbitos.

La amplificación mediante granjas de bots se utiliza para hacer que las ideas en redes sociales parezcan más populares de lo que realmente son. Una granja de bots consta de cientos de miles de teléfonos inteligentes controlados por una sola computadora. En instalaciones similares a centros de datos, montones de teléfonos utilizan cuentas falsas de redes sociales y aplicaciones móviles para compartir e interactuar. La granja de bots difunde “me gusta”, comentarios y publicaciones compartidas coordinadas para simular que mucha gente está entusiasmada o molesta por algo como una acción volátil, una farsa mundial o chismes de famosos, aunque no sea así.

Meta lo denomina “comportamiento inauténtico coordinado”. Engaña al algoritmo de la red social para que muestre la publicación a más personas porque el sistema cree que es tendencia. Dado que las cuentas falsas superan la prueba de Turing, no son detectadas.

A diferencia de los bots convencionales, que dependen del software y el acceso a API, la amplificación de la granja de bots utiliza teléfonos móviles reales. Montones de smartphones conectados a concentradores USB están equipados con tarjetas SIM, proxies móviles, suplantación de geolocalización IP y huellas dactilares del dispositivo. Esto los hace mucho más difíciles de detectar que los bots de antaño. “Es muy difícil distinguir entre actividad auténtica y actividad no auténtica”, afirma Adam Sohn, CEO de Narravance, una firma de inteligencia de amenazas en redes sociales con importantes redes sociales como clientes. “Es difícil para nosotros, y somos uno de los mejores del mundo en esto”.

Desinformación al estilo de la Gran Depresión

Distorsionar la percepción pública no es un fenómeno nuevo. Pero en el pasado, era un proceso altamente manual. Apenas unos meses antes del desplome de la bolsa de 1929, Joseph P. Kennedy, padre de JFK, se enriqueció manipulando los mercados de capitales. Formó parte de un grupo secreto de inversionistas adinerados que utilizaron compras coordinadas y la publicidad mediática para inflar artificialmente el precio de las acciones de Radio Corp. of America a niveles astronómicos.

Después de eso, Kennedy y sus amigos ricos vendieron sus acciones de RCA con una ganancia enorme, las acciones se desplomaron y todos los demás perdieron sus activos. Tras el desplome del mercado, el presidente Franklin D. Roosevelt nombró a Kennedy el primer presidente de la Comisión de Bolsa y Valores (SEC), poniendo al zorro a cargo del gallinero.

Hoy en día, los manipuladores del mercado bursátil utilizan granjas de bots para amplificar publicaciones falsas sobre acciones “de moda” en Reddit, Discord y X. Las redes de bots se dirigen a mensajes plagados de símbolos de cotización y frases coloquiales como “vamos, amigos”, “compra cuando baje”, “carga ahora” y “sigue presionando”. Los autoproclamados “finfluencers” detrás de estas estafas están obteniendo millones en ganancias coordinando ejércitos de avatares, títeres y bots para promocionar acciones con poca cotización y así poder obtener una comisión tras la subida de precios.

“Encontramos muchísimos casos en los que no hay noticias”, afirma Adam Wasserman, director financiero de Narravance. No hay ningún indicador técnico. Solo hay bots que publican cosas como ‘esta acción va a la luna’ y ‘la mejor acción, voy a retirarme de mi plan 401k’. Pero no son personas reales. Todo es falso.

En un mundo donde toda la información es ahora sospechosa y las decisiones se basan en sentimientos, la amplificación de las granjas de bots ha democratizado la manipulación del mercado. Pero la negociación de acciones es solo una aplicación. Cualquiera puede usar granjas de bots para influir en cómo invertimos, tomamos decisiones de compra o votamos.

Estas son las mismas estrategias detrás de los esfuerzos de propaganda iniciados por Rusia y el Estado Islámico para difundir decapitaciones e influir en las elecciones. Pero se han perfeccionado para vender acciones, incitar disturbios y, supuestamente, incluso manchar la reputación de famosos. Es la misma canción, solo que con letra diferente.

“Los menores de 30 años ya no usan Google”, afirma Jacki Alexander, CEO de HonestReporting, un organismo de control de medios proisraelí. Acuden a TikTok e Instagram y buscan la pregunta que quieren responder. No requiere ninguna capacidad de pensamiento crítico, pero de alguna manera se siente más auténtico. Sientes que tomas tus propias decisiones al decidir qué videos ver, pero en realidad te alimentan con propaganda creada para distorsionar tu punto de vista.

La compañía despidió a gran parte de su equipo antidesinformación y redujo la transparencia de la manipulación de la plataforma. Meta está eliminando gradualmente la verificación de datos de terceros. YouTube revirtió las funciones diseñadas para combatir la desinformación.

“En TikTok, antes se podía ver cuántas veces se compartía o comentaba un hashtag específico”, dice Alexander. “Pero eliminaron esas cifras después de que se publicaran noticias que mostraban que los mismos videos de propaganda pro-China se subieron mucho más en TikTok que en Instagram”. Impulsar contenido específico mediante algoritmos es una práctica conocida como “calentamiento”.

Si no hay información confiable, lo que pensamos probablemente se volverá menos importante que cómo nos sentimos. Por eso estamos retrocediendo de la Era de la Ciencia —cuando el pensamiento crítico y el razonamiento basado en la evidencia eran fundamentales— a algo similar a la era eduardiana, que se basaba más en el razonamiento emocional y la deferencia a la autoridad.

Cuando Twitter introdujo el microblogging, fue liberador. Todos pensábamos que era un amplificador de conocimiento. Vimos cómo impulsó un movimiento prodemocracia que se extendió por Oriente Medio y el norte de África, conocido como la Primavera Árabe, y avivó la indignación nacional por la injusticia racial en Ferguson, Missouri, sembrando las semillas del movimiento Black Lives Matter.

Mientras los fundadores de Twitter, Evan Williams y Jack Dorsey, creían estar construyendo una plataforma para el activismo político y social, su equipo de confianza y seguridad se veía abrumado por el abuso. “Es como si nunca hubieran leído El señor de las moscas. Quienes no estudian literatura ni historia no tienen ni idea de lo que podría pasar”, dijo la periodista tecnológica Kara Swisher en Breaking the Bird, un documental de CNN sobre Twitter.

Tu indignación ha sido cultivada

Lo que recibe más “me gusta”, comentarios y “shares” se amplifica. Las publicaciones con carga emocional que atraen la mayor interacción se posicionan en la parte superior de la sección de noticias. Enfurecer para interactuar es una estrategia. “La manipulación en redes sociales se ha vuelto muy sofisticada”, afirma Wendy Sachs, directora y productora de October 8, un documental sobre las protestas universitarias que estallaron al día siguiente del ataque de Hamás contra Israel el 7 de octubre. “Está financiada por gobiernos extranjeros que buscan dividir al pueblo estadounidense”.

Actores maliciosos generan viralidad estableciendo bots que se infiltran en las comunidades durante meses, a veces años, antes de ser activados. Los bots reciben fotos de perfil y biografías. Otros trucos incluyen escalonar la actividad de los bots para que se produzcan en zonas horarias locales, utilizando técnicas de identificación de dispositivos estadounidenses, como configurar el reloj interno del teléfono inteligente a la zona horaria donde supuestamente reside un “usuario” imaginario, y configurar el idioma del teléfono en inglés.

Utilizando personajes controlados por IA con intereses como las criptomonedas o los perros, los bots están configurados para seguir a estadounidenses reales e interactuar con otros bots para generar credibilidad percibida. Se trata de un concepto conocido como ingeniería social demográfica, que consiste en infiltrarse en comunidades de amplio interés que se alinean con ciertos sesgos, como las políticas de izquierda o derecha.

Por ejemplo, la red de K-pop BTS Army ha sido movilizada por liberales, mientras que las redes de Fórmula 1 podrían ser susceptibles a una manipulación similar por parte de conservadores. Los bots se infiltran en estas comunidades y se ganan la confianza mediante la participación antes de agitar desde dentro.

“Las cuentas de bots permanecen inactivas y, en cierto momento, se reactivan y empiezan a publicar simultáneamente, que es lo que hemos observado que hacen”, afirma Valentin Châtelet, investigador asociado del Laboratorio de Investigación Forense Digital del Atlantic Council. “Le dan “me gusta” a la misma publicación para aumentar artificialmente la interacción”.

Para crear y gestionar miles de cuentas falsas en redes sociales, algunos analistas creen que las granjas de bots se despliegan con la ayuda de organizaciones de ciberdelincuentes y el patrocinio estatal, lo que les da acceso a medios inusuales.

Los gestores de bots crean flujos de trabajo con la suficiente aleatoriedad para que parezcan orgánicos. Los configuran para que compartan o comenten aleatoriamente publicaciones en tendencia con ciertas palabras clave o hashtags, lo que el algoritmo utiliza para personalizar el feed de inicio del bot con publicaciones similares. El bot puede entonces comentar las publicaciones del feed de inicio, mantenerse centrado en el tema y profundizar en la comunidad.

Este flujo de trabajo es repetitivo, pero las actualizaciones constantes en la plataforma de redes sociales hacen que la actividad del bot parezca orgánica. Dado que las plataformas de redes sociales se actualizan con frecuencia, los bots programados parecen espontáneos y naturales.

Los bots de software publicaban spam, también conocido como copypasta, que consiste en un bloque de texto que se copia y pega repetidamente. Pero quienes generan bots usan IA para crear publicaciones y comentarios únicos y personalizados. Al integrar plataformas como ChatGPT, Gemini y Claude en una plataforma de creación de flujo visual como Make.com, los bots se pueden programar con lógica avanzada y rutas condicionales y usar integraciones profundas que aprovechan grandes modelos de lenguaje para sonar como un maestro libertario de 35 años del Noroeste o un mecánico de automóviles fiel a MAGA de las Dakotas.

La velocidad a la que se desarrolla la creación de imágenes con IA supera drásticamente la velocidad a la que avanzan los algoritmos de las redes sociales. “Los algoritmos de las redes sociales no evolucionan lo suficientemente rápido como para superar a los bots y la IA”, afirma Pratik Ratadiya, investigador con dos títulos avanzados en informática, que trabajó en el JPL y Apple, y que actualmente dirige el aprendizaje automático en Narravance.

“Así que hay un montón de cuentas, influencers y actores estatales que saben fácilmente cómo manipular el sistema. En el juego del gato y el ratón, los ratones ganan”. Las granjas de bots comerciales cobran alrededor de un centavo por acción para dar “me gusta” a publicaciones, seguir cuentas, dejar comentarios, ver videos y visitar sitios web. A veces se presentan como “servicios de marketing de crecimiento” o “paneles de marketing en redes sociales”, y operan en plataformas como Fiverr y Upwork, además de dirigirse al consumidor a través de sus propios sitios web.

Las granjas de bots prosperan en países donde los números de teléfono, la electricidad y la mano de obra son baratos, y la supervisión gubernamental es mínima. Un nuevo libro sobre granjas de bots vietnamitas, del fotógrafo Jack Latham, titulado Beggar’s Honey (La miel del mendigo), ofrece una mirada poco común a las fábricas clandestinas de Hanói para captar la atención.

Cultivo de sentimientos

Antes de que la libertad de expresión se confabulara con el discurso falso en línea, los operadores utilizaban el análisis fundamental y el análisis técnico para decidir qué y cuándo comprar. Hoy en día, los gestores de fondos y los analistas cuantitativos también utilizan el análisis de sentimientos para evaluar el estado de ánimo del mercado y anticipar la volatilidad. Las puntuaciones de sentimiento incluso se incorporan a algoritmos de trading para ajustar automáticamente la exposición y activar las operaciones.

Recientemente, los tribunales desestimaron una demanda por fraude de valores contra un grupo de influencers online llamado Goblin Gang, quienes ganaron millones comprando acciones de baja capitalización y escasa cotización, las cuales promocionaron agresivamente en Twitter, Discord y su podcast. Una vez que los seguidores adquirieron las acciones —lo que, a su vez, impulsó el precio de las mismas—, los acusados ​​las vendieron a precios inflados sin informar a sus seguidores.

El tribunal desestimó la acusación porque el gobierno no logró demostrar un plan de fraude. Expresar entusiasmo, incluso si es exagerado, no cumplía los requisitos legales para ser considerado fraude de valores. El 21 de marzo de 2025, el columnista de Bloomberg, Matt Levine, escribió un artículo de opinión titulado Pump and Dumps Are Legal Now (Las subidas y bajadas de precios son legales ahora).

Chatterflow, un servicio de Narravance, alerta a sus suscriptores sobre aproximadamente 10 acciones al día, de las cuales entre 2 y 4 registran movimientos bruscos a corto plazo en las conversaciones en redes sociales. La plataforma de monitoreo de sentimientos contrasta conversaciones inusuales en redes sociales con archivos EDGAR, informes de analistas, agencias de noticias y otras divulgaciones importantes para identificar picos inusuales en las conversaciones originadas en redes sociales. El servicio también evalúa la interacción y la autenticidad de los participantes que impulsan las conversaciones en redes sociales.

“Cuando investigamos las conversaciones en línea que suben las alertas, al menos la mitad son bots”, afirma Wasserman. “Mantenemos registros. Pero la mayoría de las veces, tras el alza del precio de las acciones, las cuentas de redes sociales que instigaron el frenesí se eliminan al instante”. En X, los residuos de las publicaciones eliminadas suelen persistir, preservados a través de retuits de usuarios genuinos.

Debido a los posibles riesgos legales de los inversores que se beneficiaron de las operaciones y de las empresas cuyos precios de las acciones se dispararon, Narravance aceptó compartir evidencia de numerosas acciones que cotizan en bolsa y que experimentaron grandes aumentos diarios, con la condición de que no se publicaran sus símbolos de cotización.

Para distinguir la correlación de la causalidad, en el caso del colapso de Silicon Valley Bank en 2023, las conversaciones en redes sociales también influyeron, pero fueron orgánicas. Bloomberg informó que el Founders Fund de Peter Thiel estaba aconsejando a las empresas de su cartera que retiraran fondos debido a la preocupación por la solvencia del banco. Bloomberg informó que esas advertencias, realizadas a través de comunicaciones directas, desencadenaron conversaciones privadas entre inversores de capital riesgo y fundadores de startups por WhatsApp, correos electrónicos y mensajes de texto, que se extendieron a Twitter y LinkedIn, amplificando el pánico y desencadenando la corrida bancaria digital que condujo a su colapso.

De igual manera, el repunte de GameStop a principios de 2021 es un ejemplo convincente de cómo los inversores minoristas, impulsados ​​por canales de redes sociales como r/WallStreetBets de Reddit, impulsaron el precio de las acciones, objetivo de los vendedores en corto institucionales. Su acción colectiva provocó una drástica contracción de posiciones cortas, lo que provocó que el precio de las acciones de GameStop se disparara aproximadamente 1,500% en dos semanas.

Generando una engañosa influencia masiva

El 7 de octubre de 2023, cuando Hamás lanzó su mortífero ataque terrorista contra Israel, una campaña coordinada de desinformación, impulsada por redes de bots rusos e iraníes, inundó las redes sociales con afirmaciones falsas que sugerían que el ataque había sido un trabajo interno. Publicaciones en hebreo sobre X con mensajes como “Hay traidores en el ejército” y “No confíen en sus comandantes” se vieron inundadas de retuits, comentarios y “Me gusta” de cuentas de bots.

Las granjas de bots rusas e iraníes promueven desinformación pro-palestina para avivar las divisiones en Occidente. Su objetivo es enfrentar a liberales y conservadores. Amplifican la visión que Hamás presenta del conflicto como una cuestión de derechos civiles, en lugar de la verdadera agenda de la organización terrorista: la destrucción del Estado de Israel y la expansión de la sharia y el fundamentalismo islámico. Las publicaciones en redes sociales seleccionadas para su amplificación coordinada por actores rusos e iraníes tienden a presentar a los palestinos exclusivamente como víctimas, promoviendo narrativas simplistas de víctima-victimizador o colonizador-indígena: falsas dicotomías amplificadas no para informar, sino para exacerbar y dividir las sociedades democráticas desde dentro.

La amplificación mediante granjas de bots es irreversible. Las mismas fuerzas engañosas utilizaron granjas de bots para impulsar publicaciones sobre un informe del New York Times que culpaba falsamente a Israel de una bomba que impactó en un hospital de Gaza y que, según se informa, mató a 500 palestinos. Posteriormente se reveló que la explosión fue causada en realidad por un disparo fallido de un cohete por yihadistas. El New York Times actualizó su titular dos veces. Pero no se puede volver a embotellar la influencia engañosa de las masas.

En el caso de la guerra en Gaza, las granjas de bots podrían no ser las únicas culpables. “El algoritmo de Twitter es bastante nefasto”, afirma Ahmed Fouad Alkhatib, escritor y analista sobre Gaza e investigador principal del Atlantic Council. “Realmente creo que optimiza el odio y la división para impulsar la interacción y los ingresos”. ¿Quizás Twitter simplemente sea más favorable a las granjas de bots?

Xpoz recopiló pruebas de una campaña global de amplificación de granjas de bots, impulsada por granjas de bots respaldadas por Rusia, Irán y China, para presentar lo que Hamás admite en árabe como una cruzada religiosa para expandir el Estado Islámico como una batalla por los derechos civiles, la libertad y la justicia contra los opresores israelíes en inglés. En otro ejemplo, Xpoz descubrió que la misma red de bots que amplificaba el discurso de odio antisemita en árabe también se utilizaba para amplificar tuits críticos con Ucrania en alemán.

En el caso de las protestas pro-palestinas en los campus universitarios, estallaron incluso antes de que se conociera el número de muertos israelíes por el ataque de Hamás. ¿Cómo pudo ocurrir tan rápido? Terroristas islámicos radicales seguían sueltos en Israel. La película 8 de octubre explora cómo los campus universitarios se volvieron contra Israel menos de 24 horas después de la mayor masacre de judíos desde el Holocausto.

“Creemos que la mayor parte de lo que vemos en línea es real. Pero la mayor parte de lo que vemos es engañoso”, dijo Ori Shaashua, presidente de Xpoz y emprendedor de inteligencia artificial detrás de una serie de otras empresas tecnológicas. El equipo de Shaashua analizó la proporción entre bots, avatares y humanos. “No tiene sentido que 418 cuentas de redes sociales generen 3 millones de visitas en dos horas”, dice Shaashua.

Antes del estreno del 8 de octubre, la página de IMDb de Sachs estaba inundada de cientos de valoraciones de 1 estrella. “Obviamente, solo son detractores porque ni siquiera han visto la película”, dijo el productor y director. En respuesta, animó al público de las proyecciones a dejar reseñas para contrarrestar el abuso. Obtuvo 6,300 calificaciones de 10 estrellas, lo que elevó la media no ponderada de su película a 9.1 a finales del mes pasado. El 1 de abril, los bots habían añadido más de 1,000 nuevas reseñas de 1 estrella. Tres semanas después, contaba con 4,700 de 1 estrella y 10,000 de 10 estrellas, lo que redujo su calificación en IMDb a tan solo 4.3 estrellas.

En un mundo dominado por los bots, las métricas de interacción ya no reflejan la autenticidad. A medida que la manipulación automatizada de las reseñas se vuelve más generalizada, hemos entrado en una era en la que las calificaciones con estrellas tienen poco valor, especialmente en temas que despiertan pasiones, pero cada vez más incluso en aquellos que no.

Clonando chismes de famosos

Las granjas de bots crean familiaridad hasta que se percibe como verdad, no solo en política o mercados de capitales, sino también en estilo de vida y entretenimiento. El 20 de diciembre de 2024, la actriz Blake Lively presentó una demanda contra el actor y director Justin Baldoni y otros, alegando acoso, intimidación y represalias después de que la estrella denunciara su preocupación por un comportamiento inapropiado en el set de rodaje de It Ends With Us.

La demanda de Lively alega que Baldoni y Wayfarer Studios (cofundador de Baldoni) contrataron a Agency Group, una firma de relaciones públicas de crisis, para ejecutar una estrategia que incluía astroturfing y manipulación digital: interacción en línea orquestada y engañosa que se hacía pasar por algo popular. La demanda afirma que la estrategia incluyó el uso de bots, hilos coordinados en Reddit y TikTok, y falsa interacción con los fans para manipular la opinión pública contra Lively.

“No puedo relacionarlo con Baldoni, pero sí puedo afirmar que hay evidencia de actividad sintética que no es humana”, declaró Ori Lehavi, consultor independiente de amenazas que analizó el incidente Lively-Baldoni en Xpoz. El análisis mostró que la actividad de amplificación de granjas de bots se había coordinado contra Lively. El aumento preventivo de actividad coordinada y no auténtica similar a la de los bots que Lehavi detectó se produjo el 20 de diciembre de 2024, un día antes de que The New York Times publicara la noticia sobre las acusaciones de Lively.

Ese día, la actividad similar a la de los bots se disparó a 19,411 interacciones, lo que amplificó el alcance de las publicaciones sobre Lively a una audiencia potencial de 202,540,776 espectadores. La amplificación de granjas de bots parece haber impulsado también la actividad orgánica. El día del aumento repentino de bots, hubo 2,913 publicaciones con apariencia humana, que aumentaron a 3,772 al día siguiente y a 4,734 al siguiente, a pesar de que la actividad similar a la de los bots disminuyó.

Una semana después, Baldoni presentó una demanda por difamación contra The New York Times, solicitando 250 millones de dólares por publicar una historia basada en “pruebas seleccionadas” con “falsas acusaciones de una campaña de desprestigio”.

Como es habitual en la amplificación de granjas de bots, las cuentas X más activas utilizadas para criticar a Lively han sido eliminadas. En este caso, dos de los perfiles más directos fueron una cuenta suspendida con el nombre de usuario @schuld_eth y una cuenta eliminada llamada @leapordprint_princess.

Las batallas legales en torno a estas acusaciones continúan.

No son solo los bots los que manipulan los algoritmos mediante la amplificación masiva. También son los algoritmos los que nos manipulan a nosotros. Estamos siendo sutilmente manipulados por las redes sociales. Lo sabemos. Pero seguimos navegando.

Author

  • Eric Schwartzman

    Eric Schwartzman es consultor SEO y autor de "El Pivote Digital: Secretos del Marketing Online y el Marketing Social para el Cliente Empresarial". Actualmente trabaja en su tercer libro, "La Invasión de las Granjas de Bots".

    View all posts

Author

  • Eric Schwartzman

    Eric Schwartzman es consultor SEO y autor de "El Pivote Digital: Secretos del Marketing Online y el Marketing Social para el Cliente Empresarial". Actualmente trabaja en su tercer libro, "La Invasión de las Granjas de Bots".

    View all posts

Sobre el autor

Eric Schwartzman es consultor SEO y autor de "El Pivote Digital: Secretos del Marketing Online y el Marketing Social para el Cliente Empresarial". Actualmente trabaja en su tercer libro, "La Invasión de las Granjas de Bots".

ADVERTISEMENT

ADVERTISEMENT