[Fotos: Tayfun Coskun/Anadolu via Getty Images; Anna Moneymaker/Getty Images]
El temor hacia la inteligencia artificial está llegando a extremos.
El 10 de abril, alguien arrojó un cóctel molotov a la casa del CEO de OpenAI, Sam Altman, en San Francisco. El presunto agresor, Daniel Moreno-Gama, de 20 años, no se detuvo ahí. Luego se dirigió a la sede de OpenAI y les dijo a los guardias de seguridad que tenía la intención de incendiar el edificio y a todos los que estaban dentro. Dos días después, alguien supuestamente disparó dos veces desde un automóvil que pasaba frente a la casa de Altman, pero OpenAI afirmó que este incidente no estaba relacionado con el ataque incendiario y que no iba dirigido contra Altman.
El ataque incendiario es una reacción extrema a la rápida evolución de los sistemas de inteligencia artificial en los últimos años y al temor de que dichos sistemas no actúen en beneficio de la humanidad. Moreno-Gama lo expresó claramente en el documento que la policía encontró en su poder. En él, habla del “supuesto riesgo que la inteligencia artificial representa para la humanidad” y de “nuestra inminente extinción”. Incluye una carta personal a Altman, en la que insta al CEO a cambiar. También aboga por el asesinato de los CEO de otras empresas de inteligencia artificial y sus inversionistas.
Altman ha hablado en numerosas ocasiones sobre los peligros de los sistemas de inteligencia artificial, al tiempo que presionaba a OpenAI para que desarrollara y lanzara modelos cada vez más inteligentes. Algunos sugieren que, cuando Altman habla de los peligros de la IA, en realidad se trata de una especie de falsa modestia sobre los modelos de OpenAI (“tan inteligentes que son peligrosos”).
Es cierto que los laboratorios de IA siguen logrando grandes avances en inteligencia con cada nuevo modelo. Las herramientas de programación de IA están acelerando el desarrollo, por lo que los nuevos lanzamientos y los saltos en capacidad se producen con mayor frecuencia. Mientras tanto, la opinión pública está cada vez más preocupada, incluso angustiada, por los riesgos de los sistemas de IA, que pueden abarcar desde la pérdida de empleos hasta el cibercrimen asistido por IA y la extinción humana.
La transformación de los negocios y la vida por parte de la IA no ha hecho más que empezar. Los modelos se volverán aterradoramente inteligentes. Con los laboratorios de IA bajo presión para generar rentabilidad para sus inversionistas, prácticamente no hay posibilidad de detener el proceso. Hay pocas razones para pensar que incidentes como el ataque incendiario contra Altman no volverán a ocurrir.
Sarah Federman, profesora de resolución de conflictos en la Universidad de San Diego, afirma que las personas suelen recurrir a la violencia cuando se sienten impotentes para denunciar eficazmente una injusticia percibida. “Estamos empezando a ver el punto de quiebre”, dice Federman. “Hay mucho miedo y no hay adónde canalizarlo”. También cree que, mientras los laboratorios de IA compiten por lanzar el mejor modelo, las preocupaciones éticas han quedado relegadas.
Tiene razón. Las empresas de IA han dedicado mucho tiempo a dialogar con los legisladores, explicando cómo funcionan sus sistemas y por qué regular el desarrollo de modelos puede ser contraproducente. Muchos en Washington, D.C., quedaron impresionados por Altman, a quien consideraban franco, sincero y técnicamente competente. Pero estas empresas dedican mucho menos tiempo a hablar directamente con el público. No organizan asambleas públicas ni debates sobre ética de la IA en Fox News o CNN. Es más probable que creen “institutos” para estudiar los futuros efectos de la IA en la sociedad.
Y el tema de la alineación de la inteligencia artificial, por su propia naturaleza, puede empujar a personas como Moreno-Gama hacia comportamientos extremos. Actualmente, abunda en internet el contenido catastrofista sobre la IA, capaz de sumergir a algunos en un laberinto de ideas erróneas donde pierden de vista la multitud de factores que determinarán cómo conviviremos con una IA sobrehumana.
Es posible que solo vean la narrativa de “si la construyen, moriremos” y se sientan desesperados por actuar. Incluso podrían verse influenciados por el chatbot, ligeramente adulador, de su elección.
![[Fotos: Nathan Cima/Unsplash, Giorgio Trovato/Unsplash, Paul Teysen/Unsplash, Resul Menteş/Unsplash]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/04/16231451/reembolso-aranceles-CAPE-Fast-Company-Mexico-Cortesia.webp)
![[Imagen generada con IA]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/04/16150218/ChatGPT-Image-17-abr-2026-05_02_05-a.m.png)
![[Imagen impulsada por IA]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/04/17091122/1-2.jpg)