[Ilustración: FC]
¿Puede una disputa con un cliente que genera titulares ser realmente beneficiosa para una marca? La disputa de esta semana entre el Departamento de Defensa de Estados Unidos y Anthropic, una empresa de alto perfil en el competitivo campo de la inteligencia artificial (IA), podría ser precisamente eso.
La disputa gira en torno a si el Pentágono, que tiene un acuerdo para usar la tecnología de Anthropic, puede aplicarla en una gama más amplia de escenarios: todos los casos de “uso legal”. Anthropic se ha resistido a aprobar algunos escenarios potenciales, y el Pentágono la ha acusado esencialmente de ser demasiado cautelosa. De hecho, esta evaluación coincide básicamente con los esfuerzos de Anthropic —más recientemente, a través de anuncios del Super Bowl dirigidos directamente a su prominente rival, OpenAI— por forjarse una reputación como un innovador reflexivo y considerado en IA. En un momento en que las implicaciones, pros y contras, y las posibles consecuencias de la IA se debaten con más vehemencia que nunca, la imagen pública de Anthropic intenta sortear la división.
La responsabilidad social de la IA
Presumiblemente Anthropic —mejor conocido por los consumidores por su herramienta de chat de IA Claude— preferiría impulsar esa reputación sin alienar a un cliente lucrativo. Pero la disputa subyacente se refiere a cómo los militares pueden usar la tecnología de Anthropic, con la compañía supuestamente buscando límites en aplicaciones que involucran vigilancia masiva y armas autónomas. Un portavoz del Pentágono dijo a Fast Company que la “relación de los militares con Anthropic está siendo revisada”, y agregó: “Nuestra nación requiere que nuestros socios estén dispuestos a ayudar a nuestros combatientes a ganar en cualquier batalla”. Según se informa, el departamento ha amenazado con etiquetar a Anthropic como un “riesgo de la cadena de suministro“, agrupándolo con empresas tecnológicas supuestamente woke, causando problemas potenciales no solo para Anthropic, sino también para socios como Palintir.
Hasta ahora, la postura básica de Anthropic se reduce a: Esta es una tecnología excepcionalmente potente cuyas eventualidades no comprendemos del todo, por lo que existen límites a los usos que actualmente permitimos. Dicho más claramente: No somos imprudentes.
La importancia de la confianza del usuario
No actuar tan rápido que perjudique aspectos importantes, como la confianza del usuario o la civilización, es un mensaje coherente con la imagen oficial que Anthropic ha buscado cultivar. La empresa fue fundada por personas refugiadas en OpenAI que argumentaron en 2021 que la empresa priorizaba la monetización sobre la seguridad. Sus recientes anuncios del Super Bowl son el ejemplo más destacado de esta estrategia de marca hasta la fecha: se burlan directamente de OpenAI por experimentar con la publicidad en su producto ChatGPT, dirigido al consumidor, y presentan los resultados como un desastre distópico.
Los anuncios fueron, como explicó Jeff Beer de Fast Company, un raro ejemplo de ira directa contra un competidor de la misma categoría. Podrían ser la primera salva en una batalla de marca similar a la de Apple contra Microsoft, con Anthropic asumiendo el rol de rival justo. —La respuesta inicial de OpenAI incluyó menospreciar el negocio de Anthropic, lo que simplemente refuerza la imagen de desfavorecido de esta última—.
Como imagen de marca a la que aspirar, ser el actor responsable de la IA es un objetivo comprensible. Esta tecnología ha generado controversia durante años, y últimamente ha alcanzado un punto crítico. Considerada por muchos como una amenaza a la privacidad, una destructora de empleos, una amenaza ambiental y una fuente inagotable de desinformación y basura, las élites de Silicon Valley y sus colegas intelectuales la promocionan simultáneamente como una bendición sin precedentes para la humanidad.
La realidad del conflicto entre Anthropic y el Pentágono
El único punto de acuerdo es que los cambios serán grandes, rápidos y prácticamente imparables. Y por mucho que ya lo creas, hay alguien en X que argumenta que aún no lo entiendes del todo. No es de extrañar que parezca haber espacio para una empresa de IA con un mensaje cauteloso.
Por supuesto, hablamos de marca, y en última instancia, Anthropic se encuentra bajo las mismas presiones del mercado que sus competidores. Y su comportamiento real no siempre ha sido impecable. Cabe destacar que el año pasado acordó pagar una cifra récord de 1,500 millones de dólares para resolver una demanda colectiva que alegaba que sus modelos se entrenaron con unos 500,000 libros con derechos de autor.
A pesar de su disputa con el Pentágono, su tecnología ya está entrelazada con el ejército estadounidense y, según informes, se utilizó en la reciente captura estadounidense del dictador venezolano Nicolás Maduro. Y, por supuesto, aún podría acceder a las exigencias del Pentágono. —Según Axios, los ingresos anuales de Anthropic rondan los 14,000 millones de dólares, y su acuerdo con el Departamento de Defensa está estimado en 200 millones de dólares; no es una miseria, pero tampoco una cifra existencial—.
Aun así, la disputa es una oportunidad para que Anthropic demuestre que su discurso y sus acciones concuerdan. Como mínimo, esto podría ser positivo para su herramienta de chat estrella, Claude: los consumidores tentados por el entusiasmo por la IA, pero preocupados por sus posibles desventajas, podrían ver a Anthropic como el actor principal menos imprudente de esta tecnología emergente. Y dado lo divisiva que se ha vuelto la categoría de la IA, esto podría considerarse un triunfo para la marca.
![[Foto: Instagram @pamspringsteen]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/02/20093258/IA-88.jpg)
![[Imagen: Unsplash]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/02/20112640/Diseno-sin-titulo-2026-02-20T112626.781.jpg)
![[Imágenes: captainvector/Adobe Stock; Alex/Adobe Stock]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/02/20102802/p-1-91495430-heres-every-cool-tech-thing-the-ai-ram-crunch-is-ruining.webp)