Transformar video existente
Tomas un clip que ya tienes y le cambias estilo, escenario, iluminación, ángulo o agregas, quitas y reemplazas elementos. Runway Aleph y Olive, Kling y Seedance.
Una capacidad distinta a generar desde cero. El input es un video que ya existe (grabado con cámara, un clip generado con otra IA, un screencast) y el output es ese mismo video transformado: con otro personaje, otra ropa, otro clima, otro estilo visual, con objetos agregados o removidos. El movimiento original se conserva; cambia la capa visual encima.
Tres herramientas resuelven este caso. La tabla resume cuál cubre qué.
| Transformación | Runway (Aleph y Olive) | Kling O1 | Seedance 2.0 |
|---|---|---|---|
| Restyle (skin visual distinto) | Sí, con imagen de referencia o estilo nombrado | Sí, mejor con estilo nombrado que con imagen | Sí, vía referencia de video como style reference |
| Cambio de escenario o clima | Sí (nieve y noche fuertes; lluvia débil) | Sí, con change the background of the video to... | Sí |
| Relighting con imagen de referencia | Sí, fortaleza específica | Limitado | Sí, vía video como lighting reference |
| Add, remove, replace objetos | Sí, fortaleza | Sí, vía keywords (add, remove, replace) | Limitado |
| Cambio de ángulo de cámara | Sí (change the camera angle to...) | Sí, vía descripción en prompt | Sí, vía video como camera reference |
| VFX puntuales (lámparas, agua, fuego) | Sí | Limitado | Limitado |
Cuándo usar cada una
- Runway Aleph (puntual) y Olive (conversacional): la opción más madura para video-a-video. Ambas comparten capacidades; Olive es la interfaz de chat (encadenás transformaciones en la misma sesión), Aleph es prompt-por-prompt. Empezá por Olive si recién entrás.
- Kling O1 (transformation): útil si ya estás en el ecosistema Kling. Funciona muy bien para add con elements, remove, replace y change background. La sintaxis es muy literal: el prompt empieza con la palabra clave (add, remove, change, replace, convert).
- Seedance 2.0: si querés combinar un video existente con referencias de imagen y de audio en la misma generación. Es el modelo más flexible cuando el caso pide multimodalidad.
Olive vs Aleph
Aleph es el modelo de video-a-video. Olive es la capa conversacional encima. Ambos comparten las mismas capacidades técnicas (clips de máximo 5 segundos, 720p por defecto, upscale a 4K opcional con créditos extra). La diferencia es ergonomía: Olive permite encadenar transformaciones en la misma sesión; Aleph cada prompt empieza fresco.
Los seis casos de uso
1. Restyle (aplicar un skin visual distinto)
Tomas tu video real y le aplicas el estilo de otra referencia: anime, pintura, 3D, render grayscale. El movimiento se mantiene; cambia la "piel" visual.
- Runway: subís el clip, subís una imagen del estilo, escribís "restyle the video using the style from the image". Funciona muy cerca del vibe de la referencia.
- Kling O1: "convert video to [nombre del estilo]" funciona mejor que pasar imagen como referencia de estilo. Estilos que reconoce: My Little Pony style, anime style, 3D animation style, cyberpunk style.
- Seedance: "using video 1 as a style and lighting reference, [acción nueva en el prompt]".
2. Cambio de escenario o clima
- Runway: "change the weather to a snowstorm", "make it rainy", "nighttime", "change the lighting in this scene to sunset". Nieve y cambios de hora del día son los más confiables.
- Kling O1: "change the background of the video to a [descripción]", "change the background in video to a green screen".
Lluvia es el caso más débil
Runway, Kling y Seedance comparten la misma debilidad: el agua de la lluvia no sigue bien la física y se ve plástica. Nieve, niebla y cambios de hora del día funcionan mucho mejor. Si tu escena necesita lluvia central, considerá VFX tradicional o stock footage superpuesto.
3. Relighting (cambiar la iluminación con imagen de referencia)
Específico y potente: le das al sistema una imagen con la luz que querés (una foto de magic hour, un still de cine con luz dura) y le pedís que relumine tu clip con esa luz.
- Runway: "relight the video using the lighting from this image". El sistema entiende dirección, color y temperatura de la luz y la transplanta. Trabaja sutil y creíble.
Imagen de referencia influye en estilo, color y luz, no transplanta sujetos
Según la documentación de Runway, la imagen de referencia influye en colores, estilos, iluminación y estética general. No transplanta el sujeto exacto de la referencia dentro del video. Si subís una foto de un sofá específico, vas a obtener un sofá parecido pero no el mismo sofá. Para insertar un objeto exacto, mirá Kling con elements en mantener personaje consistente.
4. Cambios sobre personas (ropa, accesorios, peinado)
- Runway: "make the man wear a black t-shirt and the woman wear a floral dress", "give this woman a black leather coat". Funciona razonable; planos backlit con luz oscura juegan a favor del modelo.
- Kling O1: mismo territorio, sintaxis con
replace.
Limitación común: mucho movimiento rompe el resultado. Si la mano del sujeto se mueve rápido, puede deformarse en la transformación.
5. Cambio de ángulo de cámara sobre el mismo clip
- Runway: "change the camera angle to a high rear-facing aerial shot above this van". También acepta prompts vagos tipo "show me a unique camera angle" y devuelve algo creativo.
- Kling O1: "video generate a close-up from the side with depth of field".
Caso de uso fuerte: ampliar la cobertura visual de un rodaje sin volver a grabar. Generás varios ángulos del mismo clip, los stitcheás en secuencia, agregás audio nuevo, y armás una escena completa desde un único video fuente.
6. VFX puntuales: object swap, removal, add objects
- Runway: "remove the person completely from the video and keep only the skateboard", "swap the shell for the glowing rock", "turn the lamp on", "remove the graffiti". Funciona bien para quitar personas, prender luces y cambiar objetos puntuales.
- Kling O1: sintaxis literal:
add an [objeto con detalle] into videoadd the [sujeto] from image behind the [referencia] and let it [acción]video remove the [sujeto]video replace the [original] with a [reemplazo detallado]. The lighting, shadows, and environment should remain consistent with the original image.
Cómo usarlo paso a paso (Runway)
Paso 1: preparar el clip fuente
Recortalo a máximo 5 segundos. Aleph y Olive recortan los primeros 5 si no lo hacés vos, y pueden no ser los segundos que querés.
Señales de que el clip va a funcionar bien:
- Poco movimiento. Sujeto más o menos estático o con movimiento suave.
- Iluminación clara, sin sombras confusas ni movimiento rápido de luz.
- Plano definido (medio o cercano a un sujeto reconocible).
Señales de que va a sufrir: acción rápida, muchas personas en cuadro, planos con texto o tipografía pequeña.
Paso 2: preparar imagen de referencia (si la usás)
Para relighting, restyle o insertar un objeto específico. Puede venir de cualquier fuente: Midjourney, Nano Banana, foto tuya, screenshot.
Paso 3: abrir Runway
runway.app. Click en get started o new session.
- Aleph directo: subís video, opcionalmente imagen de referencia, caja de prompt.
- Olive: chat. Click en el ícono
+para adjuntar media (video, imagen o ambos).
Paso 4: prompt
Texto natural, como le escribirías a un editor humano. Patrones:
- Verbos directos: place, restyle, relight, change, make, remove, swap, reframe, turn on, convert.
- Referencia explícita a la imagen cuando hay una: "from the reference image", "using the style from the image", "using the lighting from this image".
- Detalles técnicos cuando importan: "match the perspective and lighting so it blends naturally".
Paso 5: generar
- Aleph: 1-2 minutos por clip.
- Olive: 5+ minutos. Algunos devuelven error y hay que reintentar.
Cada generación es semilla nueva. Si no convence, regenerá; vas a obtener algo distinto.
Paso 6: upscale a 4K si lo necesitas
Output por defecto: 720p. Botón de upscale a 4K cuesta 10 créditos extra.
Texto pequeño se rompe al upscalear
Texto fino, logos diminutos y números pequeños pueden desintegrarse en el upscale. Si tu escena tiene texto crítico, considerá enmascarar y corregir a mano en tu editor.
Paso 7 (solo Olive): encadenar transformaciones
Como Olive es conversacional, podés encadenar en la misma sesión: cambiar ropa, después clima, después agregar un objeto. Cada paso usa el resultado del anterior como input. En Aleph haces lo mismo descargando y resubiendo, solo que con más fricción.
Costos y límites
Runway funciona con créditos. Datos concretos de los videos:
- Upscale a 4K: 10 créditos por clip.
- Clip máximo: 5 segundos. Para más, dividís y unís en editor.
- Resolución default: 720p.
Si necesitas clips más largos con transformación consistente:
- Dividí el video en segmentos de 5 segundos.
- Transformá cada segmento con el mismo prompt y, si es posible, la misma imagen de referencia.
- Uní en editor.
La consistencia entre segmentos no está garantizada. Cada generación usa semilla nueva. Mitigaciones: misma imagen de referencia, transiciones de cámara que cubran saltos, corrección de color en post.
Errores comunes
- "El sujeto exacto de mi imagen de referencia no aparece." Correcto. La imagen influye en estilo, luz y color, no transplanta sujetos. Si necesitas un objeto exacto, mirá Kling con elements.
- "Mi personaje cambia de cara en el output." Pasa, especialmente con peinados y barbas. Regenerá con semilla nueva. Probá prompts más acotados: "change only the hairstyle, keep the face identical".
- "La mano se deforma con movimiento rápido." Limitación conocida. Cortá el clip en un momento de menor movimiento, o aceptá corrección manual.
- "El film grain original desapareció en la parte modificada." Asset nuevo queda demasiado limpio comparado con el clip original. Solución profesional: rotoscopear el área modificada y agregar grain encima en el editor.
- "Pedí X y cambió Y también." Los prompts no son quirúrgicos. Si pasa, regenerá o trabajalo en pasos: primero remover, verificar, después pedir lo siguiente.
- "Olive me devolvió un error sin explicación." Pasa. Reintenta. Si el mismo clip falla varias veces, probá con un recorte ligeramente distinto o un prompt más simple.
Cuándo no es la respuesta
- Necesitas un objeto o persona exacta insertada (tu producto real, tu logo exacto). Mirá Kling con elements en mantener personaje consistente.
- Necesitas clips más largos de 5 segundos con transformación consistente sin cortes. Hoy no es nativamente posible; vas a concatenar segmentos con las limitaciones descritas.
- Necesitas control pixel-perfect. Las herramientas siguen siendo generativas. Si cada pixel tiene que estar donde vos decís, vas a After Effects.
- Querés generar desde cero sin fuente previa. Para eso tenés animar un video corto o generar planos cinematográficos.
Animar un video corto
Genera clips de video de hasta 8 segundos desde texto o imagen, sin salir de Claude Code. LTX-2 es la opción por defecto del toolkit para clips rápidos.
Animar retratos
Convierte una foto de una persona en un video donde habla con sincronización labial. Ideal para agregar un presentador a tus videos.