[Imágenes: FABRICE COFFRINI/AFP via Getty Images; Al Drago/Bloomberg via Getty Images; Igor/Adobe Stock]
Gran parte del mundo de la IA observa atentamente el conflicto entre Anthropic y el Pentágono sobre cómo el gobierno estadounidense puede usar los modelos de Claude. Anthropic tiene un contrato de 200 millones de dólares con el Pentágono, pero dicho contrato estipula que el ejército no puede usar los modelos de la compañía de IA como cerebros para armas autónomas ni para la vigilancia masiva de estadounidenses. El secretario de Defensa, Pete Hegseth, insiste, posteriormente, en que el ejército debería poder usar los modelos de Anthropic para “todos los fines legales”.
Hegseth convocó al CEO de Anthropic, Dario Amodei, al Pentágono para una reunión el martes por la mañana, en la que, según se informa, le dio a Anthropic hasta las 17:01 del viernes para cumplir con la exigencia del Pentágono. Si Anthropic no lo hace, Hegseth amenazó con invocar la Ley de Producción de Defensa para obligar a la compañía de IA a suministrar sus modelos sin barreras de seguridad. Hegseth también afirmó que el gobierno declararía los modelos de Anthropic como un “riesgo para la cadena de suministro”, lo que significa que se ordenaría a todos los proveedores gubernamentales evitar o suspender su uso.
Amodei declaró en una entrevista tras la reunión con Hegseth que su empresa no tiene intención de cumplir con las exigencias de Hegseth. (Tiene argumentos sólidos: después de todo, los funcionarios del gobierno aceptaron los términos). Amodei explicó que el ejército se basa en el criterio humano para evitar violar los derechos constitucionales de las personas. Si la IA toma las decisiones, no habrá ningún ser humano que se oponga.
Amodei tiene razón, y la disposición de su empresa a defender sus valores es loable. El problema es que nos dirigimos rápidamente hacia un futuro en el que los sistemas autónomos se convertirán en la norma en la guerra.
Durante años, el estamento militar habló de mantener al “humano al tanto” de los sistemas de armas de IA. A menudo, ese humano es un abogado del gobierno que puede tomar decisiones sobre cuestiones relacionadas con las reglas de combate en el campo de batalla. Actualmente, el Pentágono habla más sobre armas totalmente autónomas que pueden gestionar una mayor parte de la “cadena de destrucción”, es decir, la serie de comunicaciones y decisiones en torno a la destrucción de un objetivo. Los líderes militares suelen afirmar que quien pueda usar la tecnología para acortar la cadena de destrucción ganará las guerras.
Factores como la guerra electrónica (ciberguerra), los misiles hipersónicos y los enjambres de drones están acelerando la guerra y acortando los tiempos de respuesta. Esto podría eventualmente eliminar la posibilidad de revisión y toma de decisiones humanas. Cada vez más, el ejército estadounidense podría verse obligado a excluir a los humanos del proceso para mantenerse competitivo frente a sus adversarios.
Por lo tanto, el resultado del impasse de Anthropic con el Pentágono podría ser que un laboratorio de IA preocupado por la seguridad se vea obligado a abandonar sus operaciones, y una empresa generalmente menos escrupulosa como xAI sea elegida como alternativa.
![[Fuente de la foto: Getty Images]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/02/26130239/p-91499211-punch-the-monkey-and-his-orangutan-and-merchandise.webp)
![[Imagen: cortesía MeLi]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/02/26112242/MeLi-Mercado-Libre-lo-mas-comprado-de-2025-Fast-Company-Mexico-Cortesia.jpg)
![[Foto: Warner Bros. Studios vía Wikimedia Commons]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/02/26222542/Netflix-Warner-Fast-Company-Mexico-Wikimedia-Commons.jpg)