[Fuente de la imagen: axllll/Getty Images]
Imagina que estás hablando con alguien y de repente empieza a meter publicidad en la plática. ¿Cómo sería eso?
En un episodio de 1965 de la clásica comedia Mi Bella Genio, la protagonista usa sus poderes mágicos para crear padres falsos para sí misma con el fin de impresionar a una cita. Los crea para que sean “igual que las personas en los anuncios de televisión”, haciéndoles hablar usando frases de los anuncios. Sus “padres” sintéticos parecen amigables y normales, hasta que empiezan a hablar, recitando anuncios textualmente para productos como “streak-away” para el cabello canoso, jabón para platos, adhesivo para dentaduras postizas “Grippo” y desodorante. Tienen tanto que decir, pero no comunican nada en absoluto.
Algo similar podría suceder si OpenAI sigue adelante con sus planes rumoreados de agregar publicidad a ChatGPT. En diciembre pasado, un artículo en Futurism, que citaba fuentes internas de OpenAI, sugirió que la adopción de anuncios podría estar cerca. Recientemente, The Information reportó que la compañía está contratando “veteranos de la publicidad digital” y que instalará un modelo secundario capaz de evaluar si una conversación “tiene una intención comercial”, antes de ofrecer anuncios relevantes en las respuestas del chat.
Los anuncios molestos dentro de ChatGPT podrían ser para cosas tan banales como un producto de comestibles, un puesto local para visitar o un servicio de mantenimiento. Pero también podrían ser mucho más, algo peligroso. Dado el historial de ChatGPT, alguna pobre alma podría estar abriendo su corazón al chatbot, solo para ser avisada de una oferta especial en su ferretería local. No estoy tomando esto último a la ligera, podría suceder. No puede haber una verdadera supervisión con LLM. Y ese es solo uno de sus problemas.
El contexto es el Santo Grial
La estrategia publicitaria de OpenAI es un intento audaz y brillante, pero potencialmente terrible y rudimentario de automatizar la comprensión contextual, un eslabón perdido en el impulso hacia la combinación de big data y vigilancia.
Durante mucho tiempo, los periódicos y las emisoras de radio eran locales y distribuidos. A medida que el transporte nos conectaba y la tecnología mejoraba, surgió la oportunidad de distribuir noticias más centralizadas desde fuentes únicas y más grandes. La televisión comenzó con unos pocos canales y una programación concentrada, uniforme en amplias regiones. Esto marcó el comienzo de una época dorada para los anunciantes que patrocinaban contenido televisivo y podían mostrar anuncios individuales a millones de espectadores.
Como tecnología distribuida, internet ha revolucionado muchos medios tradicionales, y los anunciantes se han esforzado por llegar a nosotros de nuevas maneras. Si bien la tecnología les ha permitido aprovechar nuestra ubicación para identificar lo que podría interesarnos, los anuncios en internet a menudo no son contextualmente relevantes para lo que queremos o necesitamos.
Lo que OpenAI pretende hacer con la publicidad, a través de los 900 millones de usuarios semanales que ChatGPT declara, sintetizará el modelo de distribución local. Esto permitirá que la plataforma llegue a nuestros hogares de la misma forma que lo hizo la televisión masiva. Es un intento de unificar y eludir las interfaces de teléfonos y computadoras que usamos actualmente. En el proceso, OpenAI creará una “superplataforma” para el uso y procesamiento de la información.
Los algoritmos no nos conocen
Dentro de su plataforma actual, ChatGPT ofrece un medio conversacional de interacción y consulta; cada chat captura cómo usamos el lenguaje, descripciones más detalladas de los problemas que buscamos resolver y muchas de nuestras necesidades. Por lo tanto, la oportunidad para que OpenAI tenga control de la plataforma, además de acceso a nuestros pensamientos más profundos, con la capacidad de vigilancia para compilarlos en anuncios individuales dirigidos, es el objetivo final de los anunciantes: llegar a nosotros, a lo más profundo de nuestros pensamientos.
Sin embargo, este resultado es improbable. El problema con este modelo es que aún depende de la compilación y ordenación computacionales. Los algoritmos no nos conocerán ni establecerán relaciones con nosotros. Por ello, no pueden recomendar soluciones publicitarias reales a nuestros problemas, al igual que estos algoritmos no pueden resolver los nuestros ahora. Pero sus resultados pueden simular la utilidad, como los padres sintéticos de Jeannie.
ChatGPT podría ofrecerte cosas que no te interesan
Si bien la recopilación y compilación de nuestros datos en línea ha permitido que los anunciantes comprendan mejor qué creen que necesitamos, lo que ha faltado es comprender el contexto de lo que estas acciones significan para nosotros. La investigación cualitativa, que ayuda a descubrir el cómo, el porqué y el qué de la interacción, ha quedado relegada a un segundo plano ante la prisa por adoptar el big data.
Los LLM que alimentan a los chatbots no son mágicos: son algoritmos que comparan estadísticamente palabras y las clasifican a partir de las fuentes con las que se entrenó el modelo. Un LLM que “escucha nuestras conversaciones” no “comprenderá” el contexto como lo hacen los investigadores cualitativos humanos. Por lo tanto, los anuncios que ChatGPT sugerirá a partir de nuestras conversaciones pueden parecer coincidentes, pero es poco probable que ofrezcan algo contextualmente sustancial.
Otra idea que sugiere OpenAI es que los resultados patrocinados podrían recibir un trato preferencial. Los suscriptores podrían recibir anuncios con mejor coincidencia, pero, de nuevo, dado que todo esto se basa en la coincidencia de palabras, puede que no sea de gran importancia. —No se ha revelado si habrá una opción para evitar dicha publicidad por completo—.
La confianza es una ilusión
Un portavoz de OpenAI declaró a The Information: “Las personas tienen una relación de confianza con ChatGPT, y cualquier enfoque estaría diseñado para respetar esa confianza”. Pero hay una gran diferencia entre tener una relación social con alguien y tener una relación social de confianza.
Muchos de nosotros estamos acostumbrados a llenar vacíos sociales al interactuar con quienes intentan comunicarse con nosotros. En ese contexto, podemos proyectar sociabilidad —y, por lo tanto, confianza— en ellos. Al parecer respondernos con un punto de vista y un estilo de conversación personal, ChatGPT perpetúa esa ilusión de sociabilidad y confianza. Al aprovechar nuestros comportamientos sociales innatos, ChatGPT también aprovecha esa buena voluntad conductual. Pero esa sociabilidad y esa “confianza” están en nuestra cabeza. No son reales; son solo un algoritmo.
ChatGPT es simplemente una forma de presentarnos los resultados del LLM de OpenAI. ¿Es confiable y social extraer el conocimiento y el trabajo de las personas para entrenar un modelo? Si OpenAI fuera una persona, diríamos que no, señalando que eso es como si un sociópata robara nuestras ideas y trabajo para presentarlos a otros. Pero al “conversar” con ChatGPT, proyectamos en él una confianza que no puede ganarse porque no es humano.
La publicidad en ChatGPT parece inevitable
La incorporación de publicidad por parte de OpenAI a ChatGPT parece inevitable. Si usamos esta herramienta, debemos recordar que no podemos vincularnos con ella, que no puede tener una relación con nosotros y que solo puede hacer coincidencias de palabras. Cualquier anuncio que nos muestre se basará en lo que le digamos, pero no puede “pensar” en todo lo que le decimos y proponer un anuncio que nos hable explícitamente como lo haría un amigo de confianza que nos conoce. Es mejor tener esto en cuenta a medida que estas herramientas evolucionan para aparentemente “entendernos”.
OpenAI, como empresa, podría intentar ganarse la confianza de sus clientes descubriendo lo que quieren y necesitan mediante investigación cualitativa, en lugar de imponernos sus decisiones publicitarias. Aun así, la idea de que este modelo escale y ofrezca publicidad contextualmente relevante a “900 millones de usuarios semanales” parece poco realista. El contexto, especialmente impulsado por las LLM que ya tienen problemas con “basura, alucinaciones y mentiras descaradas”, puede ser un reto para los anunciantes, que necesitan recomendaciones fiables para mantener la integridad de sus marcas y su reputación.
Si no se crea confianza entre las entidades, todos corremos el riesgo de ser engañados: OpenAI, que cree que sus algoritmos cumplirán lo que prometen, los anunciantes que confían en que sus anuncios coincidirán con precisión con el contexto e intereses del usuario, y aquellos que usan ChatGPT, un servicio en el que confían y que, de hecho, parece tener la intención de usarlos para obtener ingresos.
![[Imágenes: Ikea]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/16121137/p-1-91474816-ikea-roblox.webp)
![[Imagenes generadas con IA]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/16104537/Copilot_20260117_004521.png)
![[Foto: Monster Ztudio/Adobe Stock]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/16123246/p-1-91475190-willpower-will-fail-you-systems-are-the-real-secret-to-winning-at-work-and-life.webp)