Seedance 2.0 y el problema que ningún creador quiere admitir

Lo he hecho. He generado vídeos con caras de actores conocidos, personajes de franquicias, estética de series populares. No porque...

marzo 23, 2026

Escrito por

Picture of Lordwind E. Aguilar Ramírez
Lordwind E. Aguilar Ramírez
Fundador de Arca Artificial | Diseñador Visual Profesional

Compartir

Tabla de contenido

⏱️ Tiempo de lectura: 7 minutos

Lo he hecho. He generado vídeos con caras de actores conocidos, personajes de franquicias, estética de series populares. No porque no supiera que había algo cuestionable en ello, sino porque funciona. El algoritmo premia lo reconocible. Y cuando llevas tiempo intentando que la gente vea lo que puedes hacer con IA, usas lo que da resultado, porque creando material original sueles pasar desapercibido el 80% de las veces. Aunque no dejo de intentarlo.

Seedance 2.0, el nuevo modelo de vídeo de ByteDance, acaba de pausar su lanzamiento global por presión de Hollywood. Disney, la Motion Picture Association, varios senadores de EE. UU. Mucho ruido. Muchas declaraciones. Pero si te quedas solo con la noticia, te estás perdiendo lo que importa.

Porque el problema no empezó con Seedance. Empezó mucho antes, con nosotros. Con cada vídeo que generamos usando la cara de alguien que no dio permiso. Con cada prompt en el que pedimos «en el estilo de esta película» o «haz que parezca este actor». Y mientras debatimos si ByteDance se pasó de la raya, hay un caso mucho más silencioso, y mucho más peligroso, que casi nadie está nombrando.

Cara generada con IA apareciendo en una pantalla, representando el debate sobre identidad digital y derechos de imagen

¿Qué es Seedance 2.0 y por qué Hollywood frenó su lanzamiento global?

Seedance 2.0 es el modelo de vídeo generativo de ByteDance, la empresa detrás de TikTok. Técnicamente es un salto real: acepta texto, imágenes, vídeo y audio al mismo tiempo, los combina y genera clips de hasta 15 segundos con física creíble, movimiento de cámara cuidado y sincronía de sonido. El tipo de material que hasta hace poco requería equipo, presupuesto y tiempo.

Se lanzó primero en China, integrado en Jianying, el editor de vídeo local de ByteDance. El plan era extenderlo globalmente en semanas, a través de CapCut y otras plataformas. No llegó a pasar.

A mediados de marzo de 2026, tras avisos legales de estudios como Disney y cartas de la Motion Picture Association, ByteDance detuvo ese despliegue. El motivo oficial: analizar riesgos y añadir salvaguardas. El motivo real: el modelo permitía generar vídeos con personajes de Marvel, Star Wars o Stranger Things, finales alternativos de series, y caras de actores como Tom Cruise o Brad Pitt con una facilidad que la industria no estaba dispuesta a ignorar.

Varios senadores de EE. UU. pidieron directamente el cierre de Seedance. Y la herramienta, por ahora, sigue siendo solo para el mercado chino.

El problema real no es ByteDance, somos nosotros

Es fácil señalar a ByteDance. Es una empresa china, grande, con intereses que no siempre coinciden con los de la industria occidental. Pero si reducimos este debate a «ByteDance malo, Hollywood bueno», estamos siendo deshonestos.

Los vídeos virales que aceleraron el cierre de Seedance no los generó ByteDance. Los generamos nosotros. Creadores, curiosos, gente que quería ver qué pasaba si pedía «Tom Cruise en una película de acción» o «final alternativo de una serie famosa». Lo subimos, se compartió, explotó.

¿Por qué lo hacemos? Porque funciona. Un vídeo con una cara reconocible tiene diez veces más probabilidades de parar el scroll que uno con un personaje original. No es opinión, es lo que muestran las métricas de cualquier cuenta que lleve tiempo en esto. El algoritmo no premia la originalidad, premia el reconocimiento. Y los creadores respondemos a ese incentivo.

De hecho, ya exploré esto en detalle en un vídeo Realista de Harry Potter fucionado con Stranger Things. Ahí puedes ver exactamente cómo funciona la técnica y dónde están los límites.

Eso no nos exime de responsabilidad. Pero tampoco tiene sentido fingir que el problema está solo en la herramienta. La herramienta hace lo que le pedimos. Y durante meses, lo que le pedimos fue exactamente lo que Hollywood ahora dice que está mal.

¿Cuándo deja de ser entretenimiento y se convierte en un arma?

Hay un caso que casi no aparece en los artículos sobre Seedance, y que para mí es el más importante de este debate.

Un hombre generó un vídeo falso de una mujer, empleada de un restaurante, simulando una conducta que nunca ocurrió. Lo llevó al jefe para que la despidieran. No era una celebridad. No era un personaje público. Era una persona trabajando, con nombre y cara reales, convertida en prueba fabricada por alguien con intención de hacerle daño.

Ese caso no tiene nada que ver con copyright. No hay franquicia afectada. No hay estudio que pueda mandar un cease-and-desist. Y sin embargo es exactamente a donde lleva la misma tecnología que usamos para hacer vídeos divertidos con actores famosos.

El salto entre «vídeo gracioso de Tom Cruise» y «vídeo falso de tu compañera de trabajo» no es tan grande como parece. La herramienta es la misma. La intención es lo que cambia. Y la intención no se puede filtrar con un aviso legal de Hollywood.

Cuando normalizamos generar imágenes de personas sin permiso, aunque sean famosas, aunque sea «solo para hacer contenido», estamos ensanchando el margen de lo aceptable. Y ese margen tiene consecuencias en personas que no eligieron ser públicas.

Val Kilmer, IA y la pregunta que sí tiene permiso pero igual incomoda

Mientras pasa todo esto con Seedance, hay otro caso que está generando un debate paralelo y que va exactamente en la dirección contraria: la película As Deep as the Grave.

Val Kilmer, fallecido en 2025 tras años con cáncer de garganta, había firmado para protagonizar esta producción independiente sobre arqueólogos en el suroeste de EE. UU. en los años 20. Nunca llegó a rodar una sola escena. La producción decidió no reemplazarlo y usar IA generativa para recrear su imagen, voz y actuación completa, con el consentimiento explícito de sus herederos, que además reciben compensación económica.

Es el caso opuesto a Seedance en términos legales. Hay permiso. Hay familia involucrada. Hay intención declarada de homenaje. Y aun así, algo chirría.

Porque el consentimiento de los herederos no es lo mismo que el consentimiento del actor. Val Kilmer no pudo decidir cómo quería interpretar ese personaje, qué decisiones creativas tomar, cómo moverse, qué matices dar a cada escena. Una actuación no es solo la cara y la voz. Es lo que el actor elige hacer con ellas. Y eso no se puede reconstruir con IA, por muy buenos que sean los materiales de referencia.

Lo que este caso abre es una pregunta que la industria va a tener que responder antes de que llegue demasiado tarde: ¿hasta dónde pueden los herederos ceder los derechos de imagen de alguien que ya no puede hablar por sí mismo? Y si esto funciona comercialmente, ¿cuánto tiempo tarda Hollywood en construir bibliotecas de actores digitales negociadas una sola vez y explotadas durante décadas?

SAG-AFTRA lleva años avisando de esto. Las huelgas de 2023 fueron en parte por este motivo. El caso de Val Kilmer, aunque bien intencionado, es exactamente el tipo de precedente que los sindicatos temen.

Figura humana formada por partículas de luz disolviéndose, representando la identidad digital y la reconstrucción de personas con inteligencia artificial

Qué cambia para ti como creador a partir de ahora

No voy a decirte que dejes de usar referencias o que cada prompt tiene que ser 100% original. Sería hipócrita y además poco útil. Pero sí hay cosas concretas que están cambiando y que afectan directamente a quien produce vídeo con IA de forma profesional.

Primero, si trabajas para clientes, el riesgo legal es tuyo, no de la herramienta. Prometer «total seguridad legal» en un proyecto donde usaste una cara reconocible sin licencia es un problema que puede volver. Las plataformas se cubren en sus términos. Tú no.

Segundo, Europa va en la dirección contraria a EE. UU. en este tema. Mientras en EE. UU. se debate si el entrenamiento con material protegido es ilegal o no, en la UE la tendencia es exigir trazabilidad, compensación y más responsabilidad para plataformas y usuarios comerciales. Trabajar en España en 2026 significa que este marco te afecta más que a un creador de otro mercado.

Tercero, y esto es más estratégico que legal: los modelos que van a sobrevivir en Occidente serán los que lleguen con acuerdos de licencia claros, filtros de imagen integrados y opciones enterprise para marcas. Herramientas como Freepik Spaces o los planes pro de Runway ya van en esa dirección. Especializarte en producción con esas herramientas, y poder explicarle a un cliente qué licencia cubre qué uso, es una ventaja real frente a quien solo sabe generar.

Si estás pensando en ofrecer esto como servicio, te viene bien tener claro qué cobrar: ¿Cuánto cobrar por un video con IA? 7 factores para presupuestar sin regalar tu trabajo.

No es moralismo. Es que el mercado profesional va a empezar a pedir eso.

Preguntas frecuentes

¿Por qué se pausó el lanzamiento global de Seedance 2.0?

ByteDance frenó el despliegue internacional de Seedance 2.0 tras recibir avisos legales de estudios como Disney y presión de la Motion Picture Association y senadores de EE. UU. El modelo permitía generar vídeos con personajes, actores y propiedades protegidas sin autorización. De momento sigue disponible solo en China, integrado en Jianying.

¿Es legal usar IA para recrear la imagen de Val Kilmer en una película?

En el caso de As Deep as the Grave, la producción cuenta con el consentimiento de los herederos de Val Kilmer, que además reciben compensación. Eso lo diferencia del uso sin permiso. Sin embargo, el consentimiento de la familia no es lo mismo que el del propio actor, y el debate sobre qué derechos pueden cederse póstumamente no tiene respuesta legal clara en la mayoría de países.

¿Puedo usar vídeos generados con IA de personas famosas en proyectos para clientes?

No sin riesgo legal real. Usar la imagen o likeness de una persona reconocible sin consentimiento expreso, aunque el modelo lo permita técnicamente, puede derivar en reclamaciones por derechos de imagen, especialmente en campañas comerciales. En la UE la regulación va hacia más trazabilidad y responsabilidad, no menos.

¿Qué pasó con el vídeo de la mujer del restaurante generado con IA?

Un hombre generó un vídeo falso de una empleada de un restaurante simulando una conducta que nunca ocurrió, y lo usó para intentar que la despidieran. Es uno de los casos más claros de cómo la IA generativa de vídeo puede causar daño real a personas anónimas. Y es el escenario que el debate sobre copyright casi nunca menciona.

Conclusión

No tengo una respuesta limpia para esto. Sigo usando referencias reconocibles cuando el proyecto lo pide. Sigo intentando que el contenido original funcione, aunque la mayoría de veces no lo haga. Y sigo pensando que el debate sobre Seedance, sobre Val Kilmer, sobre todo esto, es más complicado de lo que los titulares dejan ver.

Lo que sí tengo claro es que la conversación no puede quedarse en «Hollywood contra ByteDance». Eso es ruido. Lo que importa es qué hacemos nosotros con las herramientas que tenemos, y qué tipo de precedentes estamos construyendo cada vez que generamos un vídeo de alguien que no dio permiso.

Si quieres ver cómo trabajo con estas herramientas en proyectos reales, sin filtros y con los límites sobre la mesa, tienes el canal de YouTube de Arca Artificial. Y si produces vídeo para marcas y quieres hacerlo con criterio, Arcademia es el sitio donde trabajamos esto en profundidad.

prueba

¿Quieres la guía de referencia de este tutorial?

Artículos relacionados

Arca Artificial