| Tech

Anthropic ataca la publicidad en chatbots con su propio anuncio para el Super Bowl

Anthropic aprovecha el Super Bowl para lanzar ingeniosas críticas sobre el futuro de la inteligencia artificial.

Anthropic ataca la publicidad en chatbots con su propio anuncio para el Super Bowl

Los anuncios de Anthropic para el Super Bowl son un éxito.

Los anuncios, publicados en X el miércoles, hacen burla de los planes de su rival OpenAI de empezar a incluir anuncios en ChatGPT para los usuarios gratuitos este mes. Los anuncios ilustran las posibles consecuencias reales de esa decisión para los usuarios; sin embargo, nunca mencionan a OpenAI ni a ChatGPT por su nombre.

En un anuncio, un instructor humano de ejercicio, interpretando a un simpático chatbot, afirma que desarrollará un plan para que su cliente tenga los abdominales marcados que desea, antes de sugerir repentinamente que las plantillas “Step Boost Max” podrían ser parte de la solución. En otro, una psiquiatra ofrece a su joven paciente consejos razonables, aunque genéricos, sobre cómo comunicarse mejor con su madre, y de repente le propone registrarse en “Golden Encounters”, el sitio de citas para encontrar personas mayores.

Los anuncios son divertidos y mordaces. La cuestión, por supuesto, es que, dado que las personas usan chatbots para asuntos profundamente personales y trascendentales, necesitan confiar en que las respuestas que reciben no están condicionadas por el deseo de complacer a los anunciantes.

El CEO de OpenAI tuvo mucho que decir sobre los anuncios de Anthropic para el Super Bowl

Sin embargo, Sam Altman, CEO de OpenAI, no se reía. Respondió a los anuncios afirmando que su empresa jamás publicaría anuncios como los que presenta Anthropic. Pero no se detuvo ahí. Fue mucho más allá. “Anthropic quiere controlar lo que la gente hace con la IA”, escribió en una extensa publicación en X el miércoles. “Impiden que las empresas que no les gustan usen su producto de programación (incluyéndonos a nosotros), quieren establecer las reglas sobre para qué se puede y no se puede usar la IA, y ahora también quieren decirles a otras empresas cuáles pueden ser sus modelos de negocio”. Continuó calificando a Anthropic de “empresa autoritaria”.

Anthropic, que obtiene sus ingresos mediante suscripciones y tarifas de API empresariales, afirma que quiere que su chatbot Claude siga siendo una herramienta neutral para pensar y crear. “Abre un cuaderno, elige una herramienta bien diseñada o siéntate frente a una pizarra limpia, y no verás anuncios”, declaró la compañía en una entrada de blog esta semana. “Creemos que Claude debería funcionar de la misma manera”.

Al presentar las conversaciones con Claude como un espacio para reflexionar en lugar de un espacio para anuncios, la compañía utiliza la enorme plataforma cultural del Super Bowl para cuestionar si el marketing de consumo es el futuro inevitable de la IA.

Author

  • Mark Sullivan

    Mark Sullivan es redactor sénior de Fast Company y cubre temas de tecnología emergente, inteligencia artificial y políticas tecnológicas. Antes de incorporarse a Fast Company en enero de 2016, Sullivan escribió para VentureBeat, Light Reading, CNET, Wired y PCWorld. Síguelo en Twitter @thesullivan

    View all posts

Author

  • Mark Sullivan

    Mark Sullivan es redactor sénior de Fast Company y cubre temas de tecnología emergente, inteligencia artificial y políticas tecnológicas. Antes de incorporarse a Fast Company en enero de 2016, Sullivan escribió para VentureBeat, Light Reading, CNET, Wired y PCWorld. Síguelo en Twitter @thesullivan

    View all posts

Sobre el autor

Mark Sullivan es redactor sénior de Fast Company y cubre temas de tecnología emergente, inteligencia artificial y políticas tecnológicas. Antes de incorporarse a Fast Company en enero de 2016, Sullivan escribió para VentureBeat, Light Reading, CNET, Wired y PCWorld. Síguelo en Twitter @thesullivan