[Foto: Frazer Harrison/Getty Images]
Taylor Swift presentó recientemente una serie de solicitudes de registro de marcas comerciales diseñadas para protegerse de las suplantaciones de identidad generadas por inteligencia artificial (IA). Swift ya posee una amplia gama de marcas registradas; sin embargo, estas últimas solicitudes —según sugiere al menos una firma especializada en propiedad intelectual— cumplen un nuevo propósito: proteger el timbre y el carácter de su propia voz mediante lo que se conoce como una “marca sonora”.
En dos solicitudes recientes, publicadas el 24 de abril por la empresa de Swift, la celebridad solicitó el registro de dos grabaciones como marcas comerciales. En una de ellas dice: “Hey, soy Taylor”, y en la otra: “Hey, soy Taylor Swift”. Las grabaciones en sí mismas no resultan particularmente novedosas, pero es probable que ese no sea el punto relevante.
“El concepto de proteger el sonido como marca comercial no es nuevo, aunque sigue siendo relativamente poco común”, escribió Josh Gerben, el abogado de Gerben IP que detectó las marcas en el sitio web del bufete. “Históricamente, los cantantes dependían de la ley de derechos de autor para proteger su música grabada. Pero las tecnologías de IA permiten ahora a los usuarios generar contenido totalmente nuevo que imita la voz de un artista sin copiar una grabación existente, creando así un vacío que las marcas comerciales podrían ayudar a llenar”.
Gerben añadió que, en teoría, si una imitación de la voz de Taylor Swift generada por IA se convirtiera en objeto de litigio, ella podría argumentar que los usos que se asemejen a sus marcas sonoras registradas infringen sus derechos de propiedad intelectual.
Gerben conjetura que el objetivo es proteger el sonido de la voz de Taylor Swift de manera similar a como la cadena NBC protege sus sonidos distintivos. Esta estrategia —que también ha adoptado Matthew McConaughey— refleja un enfoque novedoso para la era de la IA, si bien aún no ha sido puesta a prueba en los tribunales.
Las celebridades se encuentran entre los grupos más vulnerables ante las suplantaciones de identidad generadas por IA y, en un sentido más amplio, ante el uso no autorizado de su imagen. Si bien los artistas y actores de primer nivel ya libran una batalla constante —al estilo del juego whack-a-mole— contra las falsificaciones, la última generación de modelos de IA ha hecho que la producción de estas imitaciones resulte inquietantemente sencilla y escalable.
Por razones similares, las celebridades —y en particular las mujeres— son blanco frecuente de operaciones de deepfake que utilizan sus rostros y cuerpos para crear imágenes pornográficas no consensuadas. La propia Swift ha sido objeto de este tipo de campañas; tal fue el caso a principios de 2024, cuando se difundieron masivamente imágenes ilícitas de ella generadas por IA en plataformas como 4chan. Como respuesta —y para bien o para mal— las celebridades se apresuran a establecer las salvaguardas propias de la era de la IA, o, al menos, intentan averiguar cómo construirlas.
El intento de Taylor Swift de protegerse de la IA mediante marcas sonoras es solo el ejemplo más reciente. En 2024, OpenAI detuvo el lanzamiento de una voz de ChatGPT que guardaba un gran parecido con la de Scarlett Johansson —y, en un giro especialmente recursivo, con su interpretación del chatbot en la película Her— después de que Johansson criticara públicamente a la empresa por supuestamente imitar su voz. (OpenAI declaró que utilizó a una actriz diferente para dicha función).
En otro ejemplo, la familia de Martin Luther King Jr. presionó a OpenAI para que eliminara las representaciones del líder de los derechos civiles de su plataforma de generación de video, Sora, antes de que esta fuera cerrada.
Y, sin duda bajo la presión de las agencias de talentos, YouTube anunció recientemente que ampliaría su servicio de detección de deepfakes al ámbito de Hollywood; ahora, las celebridades tendrán la opción de solicitar que se retiren ciertos videos que contengan generaciones de IA basadas en su imagen.
“Con el apoyo de destacadas agencias de talentos y empresas de representación —incluyendo CAA, UTA, WME y Untitled Management— hemos trabajado para perfeccionar la manera en que la detección de imágenes puede servir mejor a los artistas”, declaró la plataforma en un comunicado. “Nos entusiasma que las celebridades y los artistas del espectáculo puedan ahora acceder a esta herramienta, independientemente de si poseen o no un canal en YouTube”.
En un mercado donde la apariencia y la imagen lo son todo, la IA representa, como mínimo, una nueva molestia para los artistas que buscan ejercer control —incluido el control financiero— sobre el uso que se hace de su rostro y su voz. Es probable que esta tensión siga generando frustración entre las celebridades. El año pasado, más de 400 líderes de la industria de Hollywood enviaron una carta a OpenAI y a Google oponiéndose al uso de obras protegidas por derechos de autor para el entrenamiento de modelos sin el debido permiso.
Resulta destacable que las celebridades estén impulsando medidas de protección contra algunos de los abusos más nocivos de la IA. Lo que aún no está claro es si dichas protecciones se extenderán al resto de la población —quienes también nos enfrentamos al creciente riesgo de suplantación de identidad digital— o si, por el contrario, se limitarán a permitir que la élite de Hollywood se desmarque de una nueva internet cada vez más saturada de imitaciones inquietantemente realistas.
![[Capturas de pantalla: FC]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/04/30122539/p-1b-91532926-flipbook.webp)
![[Imágenes: Adobe Stock]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/04/29162409/p-1-91532018-i-built-ai-poem-generator-i-wasnt-prepared-how-people-would-use-it.webp)
![[Imagen: Getty Images]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/04/28165849/retroalimentacion-trabajo.jpg)