| Tech

La verdadera amenaza de la IA son los algoritmos que “enfurecen para enganchar”

Los contenidos que amplifican material histérico están acelerando el extremismo y una sociedad de agravios que nos pone en peligro a todos.

La verdadera amenaza de la IA son los algoritmos que “enfurecen para enganchar” [Fotos: Keepes/Adobe Stock; ronstik/Adobe Stock]

Personalidades de los medios e influencers online que se ganan la vida sembrando la división social culpan a Antifa y MAGA del auge de la cultura del asesinato. Mientras tanto, los CEO del sector tecnológico alimentan el temor a un apocalipsis de la inteligencia artificial. Pero ambos son cortinas de humo que ocultan un problema mayor. Los algoritmos deciden lo que vemos y, al intentar obtener su aprobación, estamos cambiando nuestro comportamiento.

Este comportamiento es cada vez más violento. La radicalización de los jóvenes en las redes sociales no es nueva. Pero los algoritmos modernos la están acelerando.

Antes de que Facebook y Twitter (X) dejaran de mostrar la última publicación de un amigo en la parte superior de la página principal con publicaciones disparatadas e indignantes de desconocidos, los operativos de Al Qaeda reclutaban discretamente a jóvenes aislados y desilusionados para unirse al Califato, uno por uno. Pero los tiempos del proselitismo hombre a hombre han sido reemplazados hace tiempo por algoritmos opacos que muestran el contenido que recibe más “me gusta”, comentarios y son más compartidos. Enfurecer para generar interacciones es un modelo de negocio. El diseño algorítmico amplifica el contenido más provocador, normalizando las opiniones extremistas hasta el punto de que la indignación se percibe como participación cívica. Es una especie de juego.

Así funciona:

  • Políticos y CEOs ejecutivos tejen narrativas apocalípticas.
  • Influencers en línea intervienen.
  • Los algoritmos difunden el contenido más escandaloso.
  • El sentimiento público se endurece.
  • La violencia gana legitimidad.
  • Nuestra democracia se erosiona.

Los algoritmos no solo amplifican, sino que también deciden quién ve qué, creando mundos paralelos que nos dificultan comprender a los miembros de nuestra tribu contraria. Por ejemplo, el algoritmo del News Feed de Facebook prioriza las publicaciones que generan reacciones emocionales. El sistema de recomendaciones de YouTube dirige a los espectadores hacia contenido similar que los mantiene enganchados. Y es un completo misterio cómo la página “Para ti” de TikTok mantiene a los usuarios pegados a la aplicación.

Buscas una colchoneta de yoga en tu teléfono y los algoritmos de clasificación deciden que eres liberal. Tu vecino busca camionetas y el sistema lo etiqueta como conservador. En poco tiempo, tu muro se llena de podcasts de mindfulness y titulares sobre el clima, mientras que el de tu vecino presenta videos de todoterrenos y comentarios políticos sobre el exceso de regulación. Cada uno cree que solo ve “lo que hay ahí fuera”, pero en realidad está viendo realidades personalizadas.

Hasta ahora, el asesinato del activista de derecha Charlie Kirk, junto con los brutales asesinatos de los funcionarios electos Melissa Hortman y su esposo, los empleados de la embajada Sarah Lynn Milgram y Yaron Lischinsky, el CEO de United Healthcare, Brian Thompson, y el ejecutivo inmobiliario de Blackstone, Wesley LePatner, se han relacionado con una creciente ola de violencia política. Es más probable que sean el resultado de la radicalización en línea, acelerada por los algoritmos de las redes sociales.

Dado el lento ritmo de nuestro sistema judicial y el laborioso proceso de reconstruir la trayectoria de alguien hacia la radicalización en línea, la prueba irrefutable es difícil de encontrar. En el tiroteo de la sinagoga Árbol de la Vida en 2018, se tardó cinco años en obtener una condena para el perpetrador. Mientras tanto, más personas consumieron contenido extremista, lo que dio lugar a lo que el FBI ahora llama extremismo violento nihilista, que es una violencia impulsada menos por la ideología que por la alienación, la rabia performativa y la búsqueda de estatus social. Para cuando se resuelve un caso, se arraigan nuevas estructuras de permiso para la violencia, lo que demuestra la impotencia de nuestro sistema legal para controlar las plataformas de redes sociales.

Lo que impulsa a estas comunidades no es tanto la ideología como la búsqueda de pertenencia, estatus y poder personal. La necesidad de validación está entrelazada con lo que o quienquiera que atraiga la mayor atención en un momento dado. Actualmente, el problema que ha atraído la mayor atención es el apocalipsis de la IA. “A medida que surgen nuevas quejas en torno a la inteligencia artificial y el temor nacional a la pérdida de empleos, los ejecutivos de tecnología se ven cada vez más expuestos a amenazas de violencia física”, afirma Alex Goldenberg, director de inteligencia de Narravance, empresa que monitoriza las redes sociales en tiempo real para detectar amenazas para sus clientes.

¿Son las predicciones de desempleo provocadas por la IA, alimentadas por el alarmismo algorítmico, una fórmula para el malestar social? Si bien los CEO de alto perfil del sector tecnológico llevan mucho tiempo trabajando con equipos de seguridad, nuevos datos sugieren que estas amenazas se han extendido a todos los sectores corporativos. Un estudio realizado a más de 2,300 jefes de seguridad corporativa de empresas globales con ingresos combinados superiores a los 25 billones de dólares reveló que 44% de las empresas monitorizan activamente las redes sociales tradicionales, la deep web (contenido no indexado por Google) y la dark web (donde se esconden delincuentes y disidentes). Dos tercios de estas empresas están aumentando sus presupuestos de seguridad física en respuesta al aumento de las amenazas en línea, según el estudio de la empresa de seguridad Allied Universal.

“Antes de diciembre, menos de la mitad de los CEO contaban con algún tipo de protección ejecutiva. Ahora, las juntas directivas la exigen”, afirma Glen Kucera, presidente de Allied Universal. Los ejecutivos representan 30% del valor de una empresa, y los accionistas quieren que estén protegidos. Las empresas están respondiendo reforzando sus perímetros, contratando escoltas armados y analistas de amenazas en redes sociales, y abordando las vulnerabilidades en los domicilios de los ejecutivos. Para los CEO, la IA es a la vez una ganancia inesperada y un campo minado. Es demasiado lucrativa como para ignorarla, pero demasiado inquietante como para hablar de ella libremente. “Las personas de alto perfil que hacen anuncios controvertidos sobre la IA corren un mayor riesgo”, afirma Kucera.

Según Michael Gips, director general de la firma multinacional de asesoría financiera y de riesgos Kroll, estos hallazgos se enmarcan en una tendencia más amplia: “Vivimos en una cultura de quejas”, afirma. “Si hay algo por lo que quejarse, el riesgo está ahí”.

Incluso quienes dan forma a esta tecnología reconocen sus riesgos. Sam Altman, CEO de OpenAI, ha declarado que cree que el peor escenario para la IA es que “todos nos quedemos sin trabajo”. Elon Musk ha hecho comentarios similares, advirtiendo que existe “alguna posibilidad de que [la IA] falle y destruya a la humanidad”. Según se informa, el cofundador de OpenAI, Ilya Sutskever, habló sobre la construcción de un búnker catastrófico para los ingenieros de OpenAI en el mundo post-IAG.

Los analistas de Narrvance afirman que las narrativas apocalípticas en torno a la IA, especialmente las centradas en la pérdida de empleo, promueven la radicalización en línea. Tras leer narrativas distópicas sobre el desempleo provocado por la IA, 17.5 % de los adultos estadounidenses en una muestra estadísticamente significativa afirmó que la violencia contra Musk está justificada. El comentario de Musk sobre la pérdida universal de empleos se extendió rápidamente por las plataformas sociales, desprovisto de matices, convertido en meme y reformulado como una profecía de colapso social.

En las comunidades en línea donde las personas anhelan pertenencia y validación, la retórica de Musk se convierte en la base de “estructuras de permiso” que racionalizan la violencia. Antes de su renuncia al Departamento de Eficiencia Gubernamental (DOGE), el sentimiento negativo hacia Musk era mayor. En marzo de 2025, casi 32% de los estadounidenses afirmó creer que su asesinato estaría justificado, según otro estudio de Narravance. En el blog de Sam Altman, el CEO de OpenAI escribió: “El desarrollo de una inteligencia artificial sobrehumana es probablemente la mayor amenaza para la existencia de la humanidad”. Cuantos más líderes tecnológicos emiten predicciones nefastas, más crece el apoyo a la violencia injustificada contra ellos.

De manera alarmante, Narravance también descubrió que los encuestados afirmaron que la violencia estaría justificada contra Alex Karp, CEO de la empresa de inteligencia artificial de vigilancia y defensa Palantir (15.4 %), Mark Zuckerberg, CEO de Meta (14.5%), Jeff Bezos, CEO de Amazon (13.8 %) y Sam Altman, CEO de OpenAI (13.3 %).

Miedo a la obsolescencia

“En cuanto asesinaron a Charlie Kirk, un video dio la vuelta al mundo. Niños de 10 años lo vieron en cuestión de horas”, declaró Jonathan Haidt, autor de The Anxious Generation, en el Festival de Innovación de Fast Company.

Haidt argumenta que desde 2012, la proporción de adolescentes que dicen que sus vidas se sienten “inútiles” se ha más que duplicado, y que los niños, en particular, sin la guía tradicional y sumergidos en las redes sociales, los videojuegos y la pornografía, luchan por encontrar su camino hacia la edad adulta.

“Si eres un niño y sientes que tu vida es inútil y no ves futuro, todo gira en torno a la fama o el dinero. Tienes que hacerte rico rápidamente o ser famoso; de lo contrario, perderás en el juego del apareamiento”, afirma Haidt. “Históricamente, los niños de todo el mundo se han arriesgado. Haz algo grande. Consigue reconocimiento”, afirma.

Un exejecutivo sénior de redes sociales que habló bajo condición de anonimato afirmó que las narrativas negativas generan desesperación. “Cuando le presentas a la gente escenarios catastróficos, estarán dispuestos a hacer cosas escandalosas”, afirma. Es una lamentable consecuencia del negocio de las redes sociales.

Colapso de las redes sociales

“Las redes sociales son un cáncer”, declaró el gobernador de Utah, Spencer Cox, en 60 Minutes, pocas semanas después del asesinato de Kirk. “Están tomando todos nuestros peores impulsos y administrándoles esteroides… llevándonos a la división y al odio. Estos algoritmos han capturado nuestras almas”. Su grave advertencia subraya cómo las plataformas recompensan la indignación, alimentan la polarización y erosionan los límites que antes impedían que el desacuerdo político derivara en violencia y caos.

En otra entrevista, en Meet the Press, Cox argumentó que las empresas de redes sociales nos han “hackeado el cerebro”, volviendo a la gente “adicta a la indignación” de maneras que alimentan la división y erosionan la capacidad de acción. Afirmó creer que las redes sociales han desempeñado un papel directo en cada asesinato o intento de asesinato en los últimos cinco o seis años. “Los emprendedores del conflicto se están aprovechando de nosotros, estamos perdiendo nuestra autonomía y tenemos que recuperarla”, dijo.

Cuando la indignación se amplifica, cualquier interacción parece un respaldo, la gente lo confunde con la verdad, aunque pueda ser falso o, peor aún, una actividad inauténtica coordinada, impulsada por el algoritmo de TikTok controlado por China o por granjas de bots rusos.

Según un informe de FAR.AI, una organización sin fines de lucro dedicada a la investigación en seguridad, con la inteligencia artificial ya más persuasiva que los humanos y los LLM de vanguardia guiando la manipulación política, la desinformación y los esfuerzos de reclutamiento terrorista, los riesgos ya se están multiplicando exponencialmente. Las predicciones de un futuro distópico y sin empleos para la IA palidecen en comparación.

La verdadera amenaza es la erosión del propio juicio humano. El riesgo existencial de la IA —planteado por primera vez en 1975 por el informático Joseph Weizenbaum en su profético libro El poder de la computadora y la razón humana— no es el desempleo ni la humanidad suspendida en biocápsulas al estilo Matrix. El peligro no son las máquinas conscientes. Son algoritmos diseñados para mantenernos comprometidos, enfurecidos y eternamente divididos. El apocalipsis no vendrá del código, sino de nuestra rendición a él.

Author

  • Eric Schwartzman

    Eric Schwartzman es consultor SEO y autor de "El Pivote Digital: Secretos del Marketing Online y el Marketing Social para el Cliente Empresarial". Actualmente trabaja en su tercer libro, "La Invasión de las Granjas de Bots".

    View all posts

Author

  • Eric Schwartzman

    Eric Schwartzman es consultor SEO y autor de "El Pivote Digital: Secretos del Marketing Online y el Marketing Social para el Cliente Empresarial". Actualmente trabaja en su tercer libro, "La Invasión de las Granjas de Bots".

    View all posts

Sobre el autor

Eric Schwartzman es consultor SEO y autor de "El Pivote Digital: Secretos del Marketing Online y el Marketing Social para el Cliente Empresarial". Actualmente trabaja en su tercer libro, "La Invasión de las Granjas de Bots".