Llega Seedance 2.0, el sorprendente salto de la IA generativa en video de los creadores de TikTok - La Tercera
ByteDance, la empresa matriz que da vida a la app TikTok, lanzó el pasado 7 de febrero su nueva versión de la aplicación de creación de videos con IA, Seedance 2.0.
Entre sus características principales genera secuencias desde un solo prompt, manteniendo consistencia en personajes, estilos y ángulos de cámara.
También integra audio nativo con diálogos, efectos de sonido y sincronización labial precisa en más de 8 idiomas, eliminando la necesidad de post-producción.
Entre sus mejoras clave, Seedance 2.0 supera versiones anteriores con velocidades de inferencia 10 veces más rápidas y exportación en 1080p o hasta 2K con físicas realistas.
#ByteDance's new #AI, #Seedance 2.0, is hailed for its ability to generate highly realistic videos from simple prompts, marking an access breakthrough. However, the same technology thrilling creators also fuels profound anxiety about effortless deepfakes and a looming "trust… pic.twitter.com/MYayfozs5J
Analistas citados por Bloomberg hablan de un “momento de singularidad” para la IA en el cine y la televisión. “Los resultados de las pruebas son impresionantes, ya que admiten entradas como texto, imágenes, videos y audio, y han logrado avances en capacidades clave”, cita el medio.
Pero lo realmente importante de lo que acaba de pasar con Seedance 2.0 es que la Inteligencia Artificial acaba de resolver uno de los problemas más “sucios” y difíciles de la creación de video.
El fin del efecto “ventrílocuo”
Si has probado herramientas de video-to-video, sabrás que el gran problema por resolver es la consistencia.
Es el paso de “hacer un clip” a “dirigir una escena”.
Si le entregas un audio de una guitarra eléctrica y le pides que genere a alguien tocando, la IA no solo pone a un músico en pantalla: sincroniza los dedos con el ritmo y la vibración de las cuerdas.
Es un nivel de entendimiento de la física del sonido que deja a Sora (de OpenAI) en una posición incómoda de “belleza visual, pero muda”.
Si hasta hace poco, generar un video con IA era como rodar una película muda; tenías la imagen por un lado y luego debías ir a herramientas de terceros para “pegarle” un sonido ambiental o una voz, Seedance 2.0 genera el audio al mismo tiempo
La guerra de los pixeles y la velocidad
Técnicamente, ByteDance ha logrado optimizar la inferencia.
¿Cómo lo logran? Mediante un sistema de “atención cruzada” que prioriza la coherencia del movimiento.
¿Para qué sirve esto realmente?
Más allá del asombro técnico, la integración en el ecosistema de CapCut y Dreamina es lo que debería preocupar a los editores tradicionales.
Estamos ante una herramienta que democratiza el lenguaje cinematográfico:
La gran pregunta es si, después de ver lo que esta tecnología puede hacer en 60 segundos, volveremos a mirar un software de edición tradicional con los mismos ojos.