[Foto: Getty Images]
Hace seis años, el proceso de producción comercial para empresas de la lista Fortune 500, innovadores tecnológicos y gigantes globales implicaba presupuestos millonarios y meses de investigación, guion y casting de actores de doblaje. Cada campaña era una maratón de design thinking y narrativa estratégica. Hoy, sin embargo, con la ayuda de herramientas de inteligencia artificial (IA), esos mismos pasos pueden desarrollarse en una fracción de tiempo y una cuarta parte del coste. Para los líderes de marketing y comunicación, el panorama ha cambiado drásticamente de la noche a la mañana.
Las marcas líderes más innovadoras siempre han prosperado gracias a la velocidad. Lo que les permitió ir más allá fue su capacidad de anticiparse a los acontecimientos y prever las circunstancias antes que nadie. Esto siempre ha sido importante, pero la velocidad a la que vemos cómo las ideas pasan de la concepción a la ejecución es diferente y alarmante. Cada semana parece presentarse una nueva herramienta de IA que promete hacer las cosas de forma más inteligente, rápida y mejor por la mitad de precio.
La presión constante para adoptar o quedarse atrás es palpable. De hecho, según la encuesta “Lenguaje de la Efectividad 2025” de Marketing Week, 57.5% de los profesionales del marketing utilizan actualmente IA para generar contenido de campañas e ideas creativas. Sin embargo, 85% de los encuestados por Adweek afirma sentir la presión de mantenerse al día con las herramientas más recientes. La pregunta que surge constantemente para muchos líderes no es qué sigue, sino a qué precio.
INTELIGENCIA ÉTICA: UN DIFERENCIADOR DE MARCA
Los debates sobre IA suelen venir desde extremos, ya sea como varitas mágicas o como amenazas existenciales. Lo que falta en esa conversación es un punto medio. Un espacio donde los líderes de marca puedan apoyarse en una verdadera gestión, y donde los valores humanos y la intuición se encuentren con la precisión de las máquinas. Es el espacio donde la empatía se encuentra con la previsión.
El futuro de la influencia no lo determinará quién adopte primero la próxima gran herramienta, sino quién la use responsablemente. La inteligencia ética es la fuerza que todo líder necesita fortalecer para discernir en qué herramientas de IA confiar y cómo usarlas mejor. Porque, al confiar en un chatbot o una plataforma de contenido, no solo confías en sus resultados, sino también en la ética, la conciencia y las intenciones de sus creadores. El liderazgo en este nuevo mundo de la narrativa comprende el costo y, por lo tanto, se plantea las preguntas más difíciles: ¿A quién sirve esta herramienta? ¿Y a quién podría perjudicar?
Para desarrollar inteligencia ética en la narración y la creación de contenido, los líderes de marca deben fundamentar sus decisiones planteándose tres preguntas:
1. Empatía: ¿Hemos considerado cómo la tecnología impacta a las comunidades a las que llega?
Los modelos lingüísticos de gran tamaño aún tienen dificultades para detectar los matices culturales que generan confianza en la audiencia. Esto suele manifestarse de forma sutil, como no escribir con mayúscula “negro” ni “moreno” al referirse a comunidades étnicas, un detalle de gran importancia. En mi agencia, por ejemplo, evitamos usar “jefe” para roles ejecutivos o “canal” para describir procesos, por respeto a las comunidades indígenas. El lenguaje evoluciona a diario, y la tecnología no puede reemplazar los matices de la narración. Cuanto más automatizamos las narrativas, mayor es el riesgo de erosionar el matiz humano que genera confianza en las audiencias y los consumidores. En su lugar, deberíamos buscar herramientas adaptadas a la cultura, creadas o basadas en las audiencias a las que nos dirigimos, como Aisha, una guía impulsada por IA e inspirada en la experiencia de la comunidad negra.
2. Transparencia: ¿Estamos siendo claros acerca de cómo y por qué la IA está dando forma a nuestras historias?
Consideremos los titulares recientes sobre Sora, la aplicación de IA y generador de videos de OpenAI que permite a los usuarios realizar deepfakes. Un producto como este nos demuestra que la autenticidad y la fuente ya no son un obstáculo ni una preocupación. Presencié estos riesgos de primera mano cuando mi hijo creó un video producido por IA de mí obteniendo mi licencia de conducir —un logro que nunca llegó a suceder—. Curioso, publiqué en la lista de mis amigos cercanos de Instagram para ver si alguien podía detectar la falta de autenticidad. Nadie lo hizo. En cambio, mis mensajes directos se llenaron de mensajes de felicitación.
Si bien este ejemplo puede considerarse inofensivo, las consecuencias más amplias pueden ser mucho más graves. En manos equivocadas o mal informadas, el contenido generado por IA puede perpetuar la inequidad y los estereotipos raciales si no se controla. Tomemos el caso de Liv, una “influencer digital” impulsada por IA. Comercializada como un gran avance en la representación, Liv fue creada por un equipo de desarrollo compuesto exclusivamente por hombres blancos para personificar a una mujer negra y queer. Al carecer de una supervisión auténtica, el bot inevitablemente cayó en caricaturas dañinas que recuerdan al estereotipo de “Mammy” de los primeros medios estadounidenses.
Como observó la académica y autora Ruha Benjamin en su libro Race After Technology: Abolitionist Tools for the New Jim Code (La carrera tras la tecnología: herramientas abolicionistas para el nuevo código Jim), “La tecnología no crea los problemas. Refleja, amplifica y, a menudo, oculta formas preexistentes de desigualdad y jerarquía”. Liv se convirtió en un caso de estudio sobre la urgente necesidad de rendición de cuentas y perspectivas diversas en el desarrollo y la implementación de narrativas impulsadas por la IA.
3. Equidad: ¿Estamos creando de manera que se proteja la dignidad humana por encima del dominio de los datos?
Vale la pena preguntarse qué efectos tiene esta constante dependencia de la tecnología en nuestra mente. Las personas están realizando tanta descarga cognitiva de su pensamiento que está reduciendo sus habilidades de pensamiento crítico de maneras que no se recuperan, señala X. Eyeé, experto en IA y director ejecutivo de la consultora Malo Santo.
A medida que el contenido generado por IA se vuelve más avanzado, muchos líderes lo utilizan para agilizar propuestas, campañas y producciones creativas. En cuanto a los datos, la dirección se ha centrado en el volumen. Sin embargo, algunas organizaciones están adoptando una postura opuesta al incorporar cláusulas en sus contratos para restringir el uso de la IA. No porque rechacen la eficiencia, sino porque están demostrando un pilar de sus valores: la velocidad nunca debe ir en detrimento de la autenticidad.
En el futuro, la transparencia será fundamental para las empresas más innovadoras. Si la IA ya desempeña un papel en tus flujos de trabajo, sé transparente al respecto con tu equipo, clientes, partes interesadas y público. La próxima generación de líderes de marca estará formada por quienes prioricen la ética y la integridad en cada decisión sobre el uso de la IA y establezcan un nuevo estándar para la innovación responsable.
![[Imágenes: pixaoppa/Pixabay; kokygonzalez/Pixabay]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/06105259/unnamed-file.jpg)
![[Imagen de origen: Kia]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/06082444/p-1-91469156-kia-big-rebrand-success.webp)
![Andrés Cardona y Martín del Río, exploradores de National Geographic. [Imágenes: National Geographic; wirestock/Freepik]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/05234450/educacion-National-Geographic-Fast-Company-Mexico.jpg)
![[Foto: Lost_in_the_Midwest/Adobe Stock]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/01/06084204/botones-TikTok-Fast-Company-Mexico.webp)