Taylor Swift y la nueva batalla de la IA

La próxima gran batalla de la inteligencia artificial no será solo por los textos, las canciones o las imágenes. Será por algo más básico: quién tiene derecho a sonar como tú, parecerse a ti o aparecer en tu lugar. Taylor Swift acaba de convertirse en el ejemplo más visible de esa nueva frontera, pero el problema va mucho más allá de una estrella del pop. La IA ya no solo amenaza con copiar obras. También puede copiar personas.

El caso de Swift es llamativo porque lo tiene todo: fama global, música, imagen pública, cultura fan, marcas registradas y miedo a los deepfakes. Según Reuters, su empresa TAS Rights Management presentó el 24 de abril de 2026 varias solicitudes ante la Oficina de Patentes y Marcas de Estados Unidos para proteger dos fragmentos de voz y una imagen concreta de la artista. No significa que Taylor Swift haya “registrado toda su voz”, como podría dar a entender un titular rápido, sino que intenta blindar determinados elementos reconocibles de su identidad frente a usos engañosos o no autorizados generados con inteligencia artificial.

Entre esas solicitudes aparecen dos marcas sonoras asociadas a las frases “Hey, it’s Taylor Swift” y “Hey, it’s Taylor”, además de una imagen concreta de The Eras Tour en la que aparece con una guitarra rosa y un body iridiscente. Es una jugada jurídica interesante porque intenta llevar la defensa de la identidad a un terreno donde el copyright tradicional no siempre alcanza. Una IA puede no copiar una grabación exacta, pero sí generar algo que suene lo bastante parecido como para engañar, confundir o aprovecharse de la confianza que despierta una persona real.

Ahí está el cambio de época. Hasta hace poco, cuando hablábamos de proteger a un artista, pensábamos en canciones, discos, fotos, logos, nombres comerciales o derechos de explotación. Ahora empieza a protegerse algo más difícil de delimitar: la presencia. La forma de hablar. El timbre. El gesto. La capacidad de parecer tú ante los demás.

La IA ya no solo copia contenido: copia confianza

El problema de los deepfakes no es únicamente que sean falsos. Es que pueden usar una identidad reconocible para transferir confianza. Si vemos a una persona famosa recomendando un producto, defendiendo una idea política o anunciando una promoción, parte de nuestro cerebro sigue reaccionando como si esa persona estuviera realmente ahí. La IA se aprovecha de ese reflejo.

Wired ha publicado recientemente que se están usando deepfakes de celebridades como Taylor Swift, Rihanna o Kim Kardashian en anuncios fraudulentos de TikTok, algunos relacionados con supuestos programas de recompensa o servicios falsos. La mecánica es sencilla y peligrosa: se manipulan entrevistas o apariciones reales, se recrea la voz o la imagen de una celebridad y se dirige al usuario hacia páginas externas que pueden recopilar datos o alimentar estafas. No hace falta que el vídeo sea perfecto. Basta con que sea convincente durante unos segundos.

Por eso el movimiento de Taylor Swift tiene sentido más allá de ella. No hablamos solo de proteger una marca personal valorada en millones. Hablamos de una pregunta que afectará a cualquier persona con presencia pública: ¿qué pasa cuando tu voz puede vender algo que nunca has vendido, tu cara puede aparecer en un vídeo que nunca grabaste y tu imagen puede respaldar una idea que nunca defendiste?

En tecnología solemos hablar mucho de modelos, parámetros, generación de vídeo o clonación de voz. Pero el núcleo social del problema es más simple: la IA permite separar la identidad de la persona. Puede tomar rasgos reconocibles y hacerlos funcionar por separado, como si fueran piezas reutilizables. Y una vez que eso ocurre, el consentimiento deja de ser un detalle legal para convertirse en la frontera principal entre innovación y abuso.

Este es uno de esos momentos en los que se entiende bien por qué la IA no está estancada, sino contenida. No porque falte capacidad técnica, sino porque cada nueva capacidad abre preguntas legales, laborales y éticas que no se pueden resolver solo con una demo más espectacular.

De Scarlett Johansson a los actores de doblaje

Taylor Swift no es un caso aislado. Scarlett Johansson ya puso el debate sobre la mesa cuando acusó a OpenAI de lanzar una voz para ChatGPT que, según ella, sonaba demasiado parecida a la suya después de haber rechazado participar en el proyecto. OpenAI negó que la voz Sky fuera una imitación de Johansson y terminó retirándola, pero el caso dejó una advertencia clara: incluso cuando no hay copia literal, puede haber una sensación pública de apropiación.

En el otro extremo está el uso pactado de voces e imágenes. Meta, por ejemplo, ha incorporado voces de celebridades como Judi Dench, John Cena o Kristen Bell para su asistente de IA. Aquí no hablamos de deepfake pirata, sino de licencias negociadas. La diferencia es fundamental: alguien presta o alquila su voz, cobra por ello y acepta un contexto de uso. El problema no es necesariamente que una IA pueda sonar como una persona conocida. El problema es quién decide, con qué límites, durante cuánto tiempo y a cambio de qué.

También hay casos donde la réplica digital puede tener una lectura más compleja. James Earl Jones autorizó a Disney y Lucasfilm a recrear su voz como Darth Vader mediante tecnología de IA, en un contexto de continuidad artística de un personaje icónico. Val Kilmer, tras perder parte de su voz por problemas de salud, trabajó con herramientas de clonación para recuperar una versión sintética de su habla. Son ejemplos que obligan a evitar una respuesta demasiado simple. La IA aplicada a la voz y la imagen no es siempre abuso. Puede ser accesibilidad, archivo, continuidad creativa o nueva fuente de ingresos. Pero solo cuando hay consentimiento real y control.

En España, uno de los frentes más claros está en el doblaje. Los actores de voz llevan tiempo advirtiendo del riesgo de que sus interpretaciones se usen para entrenar modelos o generar voces sintéticas sin permiso. El País recogía cómo el sector se está movilizando bajo una idea muy sencilla: “mi voz me pertenece”. Es una frase casi obvia, pero la IA ha obligado a convertirla en reivindicación laboral, contractual y cultural.

España y México también se están moviendo

Este debate no se queda en Hollywood. En España, el Gobierno aprobó en enero de 2026 el anteproyecto de una nueva Ley Orgánica de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen, adaptada al entorno digital y a la inteligencia artificial. Según RTVE, la propuesta busca frenar la manipulación de imágenes y voces creadas con IA sin consentimiento. Dicho de otra forma: empieza a reconocer que un deepfake no es solo una falsificación graciosa, sino una posible intromisión en derechos fundamentales.

También hemos visto casos cercanos de suplantación. Emma García denunció un falso anuncio creado con IA en el que se utilizaba su voz para vender ropa. Mercedes Milá alertó de un vídeo falso en TikTok que usaba su imagen y voz para promocionar un producto vinculado a la diabetes. MasterChef tuvo que advertir de una estafa que utilizaba la imagen del programa y recreaciones de sus jueces para promociones falsas. El patrón se repite: rostros reconocibles, confianza prestada y una promesa comercial o informativa que la persona real nunca hizo.

En México, el debate ha ido incluso más lejos en el terreno laboral. En abril de 2026, el Congreso avanzó en reformas para proteger a artistas, intérpretes, locutores y actores de doblaje frente al uso de su voz, imagen o interpretación mediante inteligencia artificial. El Economista lo resumía en dos palabras: consentimiento y remuneración. No se trata solo de prohibir. Se trata de reconocer que si una voz o una imagen generan valor, la persona que está detrás debe poder autorizar, limitar y cobrar por ese uso.

Ese punto es crucial porque marca el futuro del mercado creativo. Habrá artistas que no quieran que su voz se use nunca en sistemas de IA. Otros aceptarán usos concretos bajo contrato. Algunos podrán licenciar su imagen para campañas, videojuegos, asistentes virtuales o experiencias interactivas. Y habrá herederos, estudios y plataformas intentando explotar réplicas digitales de personas fallecidas. El conflicto no será solo tecnológico. Será laboral, ético, económico y profundamente humano.

La identidad empieza a funcionar como una licencia

La idea puede incomodar, pero conviene mirarla de frente: la identidad pública empieza a funcionar como una licencia. Una marca, una voz, una cara, una forma de hablar o un gesto pueden convertirse en activos que se protegen, se negocian o se alquilan. Para una celebridad, eso puede abrir nuevas fuentes de ingresos. Para un actor de doblaje, puede ser una amenaza directa a su trabajo. Para un periodista, un creador o un presentador, puede convertirse en una forma de suplantación especialmente peligrosa.

La diferencia entre oportunidad y abuso estará en los contratos. Consentimiento claro, duración limitada, usos concretos, remuneración justa, posibilidad de retirada y transparencia ante el público. Sin eso, la réplica digital corre el riesgo de convertirse en una forma elegante de desposesión: tomar la voz de alguien, su imagen o su credibilidad y ponerla a trabajar sin esa persona.

Aquí es donde la tecnología va más rápido que nuestra intuición social. Durante décadas hemos entendido que una foto podía manipularse, que una frase podía sacarse de contexto o que un montaje podía engañar. Pero la IA generativa introduce una capa nueva: ya no manipula solo lo que hiciste, sino que puede fabricar algo que parece que hiciste. Puede inventar una entrevista, una recomendación, una canción, un anuncio, una disculpa o una declaración política con tu cara y tu voz.

Y, como ocurre con casi todo lo que toca la IA, esta capa no solo cambia la técnica: cambia el modelo económico. Si una voz, una cara o una presencia pública pueden convertirse en servicio bajo licencia, volvemos a la misma lógica que ya se está viendo en el software inteligente: la IA está haciendo que el software vuelva a ser caro, y también puede hacer que la identidad digital se convierta en un nuevo mercado de permisos, límites y tarifas.

Por eso Taylor Swift es un buen titular, pero no debería ser el final de la conversación. Su caso solo hace visible una tensión que ya afecta a mucha más gente. Si una de las artistas más poderosas del mundo necesita crear nuevas defensas legales para proteger fragmentos de su identidad, el resto tendrá que preguntarse qué herramientas tiene para hacer lo mismo.

El derecho a seguir siendo tú

La IA está obligando a redefinir algo que parecía evidente. Tu voz era tu voz porque salía de tu cuerpo. Tu imagen era tu imagen porque estabas allí. Tu presencia tenía una relación física contigo. Ahora esa relación se puede romper. Una versión artificial puede hablar, sonreír, cantar, vender o recomendar en tu lugar sin que tú hayas participado.

Eso no significa que toda réplica digital sea mala. Puede haber usos legítimos, creativos e incluso necesarios. Pero el centro debe estar en el consentimiento. No basta con que la tecnología pueda hacerlo. Hay que preguntar quién lo autoriza, quién lo controla, quién cobra y quién responde cuando algo sale mal.

En el fondo, la nueva batalla de la IA no va solo de proteger contenidos. Va de proteger la confianza que asociamos a las personas. Taylor Swift está intentando blindar una parte de su voz y de su imagen porque sabe que, en la economía de la atención, parecer Taylor Swift ya tiene valor por sí mismo. Y ese valor, en manos equivocadas, puede convertirse en estafa, manipulación o explotación.

La pregunta que deja este caso no es si las celebridades podrán registrar cada gesto, cada frase o cada versión de sí mismas. La pregunta es más amplia: cómo vamos a garantizar que una persona siga teniendo control sobre su identidad cuando la tecnología ya puede fabricar copias convincentes de ella.

Porque la IA puede generar canciones, vídeos, imágenes y voces. Pero si no ponemos límites claros, también puede generar una versión de nosotros que nunca hemos autorizado. Y quizá esa sea una de las líneas rojas más importantes de la próxima década digital.