Netflix VOID: IA que elimina sujetos de tus vídeos
Netflix acaba de lanzar VOID en abril de 2026, un modelo de IA open source que elimina objetos de videos manteniendo la física realista. Disponible en Hugging Face bajo licencia Apache 2.0, VOID logró un 64.8% de preferencia en pruebas con usuarios comparado al 18.4% de Runway, y funciona manteniendo interacciones correctas entre objetos que quedan en el video.
En 30 segundos
- VOID es el primer modelo open source de Netflix que elimina objetos de videos sin romper la física
- Usa un quadmask de 4 valores y Vision Language Models para entender interacciones entre objetos
- Disponible en Hugging Face, GitHub y demo interactiva; requiere GPU potente para uso local
- En pruebas independientes, 64.8% de usuarios lo prefieren sobre Runway (18.4%)
- Tiempo de procesamiento: 40-90 segundos por video según complejidad
Qué es Netflix VOID: El modelo IA que reinventa la edición de video
VOID es un modelo de IA desarrollado por Netflix que funciona como sistema de eliminación de objetos inteligente en videos. A diferencia de herramientas anteriores que dejaban parches raros o rompían la física, VOID entiende qué le pasa a lo que queda en el video cuando quitás algo. Arrancó como proyecto de investigación interno de Netflix en 2025, y en abril de 2026 lo abrieron al público bajo licencia Apache 2.0 en Hugging Face.
El nombre VOID significa Video Object and Interaction Deletion. Pero la verdad es más interesante que el acrónimo: Netflix se dio cuenta que todas las herramientas previas tenían un problema fundamental (spoiler: era exactamente lo opuesto a lo que se suponía que debían hacer). Podían sacar un objeto del video, sí, pero cuando quitabas a una persona que estaba sobre una silla, la silla quedaba flotando de forma ridícula. O si eliminas alguien que está sosteniendo una guitarra, la guitarra se cae solos al piso en lugar de caer con movimiento natural.
Cómo funciona VOID: La física detrás de la remoción de objetos
Acá viene lo interesante de la arquitectura. VOID funciona en tres capas simultáneamente, cada una tratando una cosa diferente: primero identifica qué objeto se va. Segundo, predice cómo el resto del mundo reacciona. Tercero, genera video nuevo que sea físicamente coherente.
Técnicamente usa un quadmask (cuatro valores diferentes para cada píxel) que especifica qué está dentro del objeto a eliminar, dónde están los bordes, qué parte interactúa con otras cosas, y qué queda al fondo. Luego un Vision Language Model analiza la escena completa y entiende: “si esta persona está sosteniendo una guitarra, la guitarra tiene que caer cuando la saquemos; si está de pie en el piso, el piso sigue igual; si estaba bloqueando la vista de algo atrás, ese algo aparece”.
Netflix entrenó VOID con sus modelos CogVideoX (generación de video) y motores de física Kubric, que simulan cómo se comportan objetos reales en el espacio. El resultado es que cuando generás el video sin ese objeto, todo lo demás se mueve de forma coherente. No es pura alucinación de IA rellenando espacios en blanco, es predicción de comportamiento físico basada en modelos de simulación.
Casos de uso reales: Ejemplos de VOID en acción
Netflix documentó tres casos concretos donde VOID demostró por qué importa la precisión física: Relacionado: ejecutar modelos sin depender de APIs externas.
Primer caso: Remover persona de un accidente vehicular. Ponele que filmaste un comercial de seguros y por accidente quedó una persona ajena en el plano durante la escena del choque. Con herramientas viejas, al remover a la persona, el auto quedaba pasando por el espacio que ocupaba, lo que visualmente es incorrecto. VOID entiende que el auto se mueve en un plano diferente y sigue su trayectoria sin artefactos.
Segundo caso: Eliminar nadador de piscina. El agua tiene propiedades únicas: si quitás a una persona que está en la pileta, el agua tiene que fluir para rellenar ese espacio, pero sin crear olas gigantes falsas. VOID analiza el movimiento del agua alrededor de la persona y genera el llenado de forma realista.
Tercer caso: Persona con instrumento que cae.** Este es el más complicado. Si una persona sostiene un micrófono en un evento y la eliminás, el micrófono no desaparece (si estaba en un soporte), o cae lentamente si estaba en la mano. El modelo identifica la interacción mano-micrófono, predice que sin la mano el objeto cae, y genera esa caída respetando velocidades y ángulos reales.
VOID vs Runway y otras herramientas: Comparativa de rendimiento
| Herramienta | Preferencia de usuarios | Física realista | Precio | Disponibilidad |
|---|---|---|---|---|
| Netflix VOID | 64.8% | Sí, modelada | Gratis (open source) | Hugging Face, GitHub |
| Runway Gen-2 | 18.4% | Parcial | $12-36/mes | Web app |
| Generative Omnimatte | No reportado | Básica | Investigación | GitHub (académico) |
| DiffuEraser | No reportado | Básica | Gratis (research) | GitHub |
| ProPainter | No reportado | Limitada | Gratis | GitHub |

Los datos de preferencia vienen de una prueba que Netflix hizo con 25 usuarios evaluando salidas lado a lado. VOID ganó por amplio margen. La diferencia técnica fundamental es que Runway y las otras herramientas generan contenido sin constrains de física; VOID usa simulaciones de interacciones para asegurar que lo que vés tiene sentido mecánico.
Eso sí, hay un trade-off: la precisión física de VOID toma más tiempo de procesamiento. Runway generaba resultados en minutos; VOID tarda 40-90 segundos dependiendo de la resolución y complejidad (si hay múltiples objetos interactuando es más lento).
Cómo descargar y usar VOID: Guía práctica para editores
VOID está disponible en tres lugares. Primero, si solo querés probar sin instalar nada, la demo interactiva en Hugging Face funciona directo en el navegador (si es que eso cuenta como “directo”).
Segundo, el repositorio oficial está en GitHub bajo netflix/void-model con instrucciones de instalación. Necesitás Python 3.9+, un GPU con VRAM de al menos 8GB (mejor 16GB para videos de resolución alta), y instalar las dependencias con pip. La licencia es Apache 2.0, lo que significa que podés usarlo comercialmente sin pedir permiso.
Tercero, si usás una plataforma que integre VOID (Runway, Adobe, otros), probablemente ya aparezca como opción en el menú de efectos dentro de pocas semanas. Netflix abrió el modelo hace poco así que la adopción está en etapa temprana. Ya lo cubrimos antes en privacidad del usuario y remoción de datos.
Los primeros pasos: cargás tu video MP4, seleccionás la región que querés eliminar (máscara), esperás 40-90 segundos (según tamaño y GPU), y descargás el resultado. La interfaz no es complicada si alguna vez usaste Runway o similar.
Limitaciones y consideraciones de VOID
VOID no es magia. Tiene limitaciones reales que importan si planeás usarlo en producción.
Tiempo de procesamiento. 40-90 segundos no es poco en workflows donde necesitás iterar rápido. Si filmaste 20 tomas y tenés que procesar 10, estamos hablando de 15+ minutos. Runway hace esto más rápido.
Casos complejos con múltiples objetos. Si la escena tiene cinco personas interactuando, cinco objetos cayendo simultáneamente y fondos dinámicos, el modelo se complica. En las pruebas documentadas, VOID funcionó mejor en escenas con máximo 2-3 objetos a eliminar.
Movimientos muy rápidos. Si alguien corre a toda velocidad y lo eliminás, el modelo a veces genera artefactos en los fotogramas de transición. La física se mantiene pero la transición puede verse antinatural.
Requisitos de hardware. Para usar VOID localmente necesitás una GPU potente (RTX 4070 o mejor, idealmente 4090). Si no tenés eso, la demo en Hugging Face es la opción. Más contexto en herramientas de GPU para entrenar modelos de IA.
El futuro de la edición de video con IA: Qué significa VOID para productores
VOID democratiza algo que antes era carísimo: eliminar objetos de video sin romper la escena. Históricamente, si grabaste una toma perfecta pero quedó alguien no deseado en el plano, tenías dos opciones: reshooting (costísimo, requiere actores, locación, iluminación igual) o rotoscopia manual (un dibujante pasaba 3-4 horas por toma).
Con VOID, ese trabajo baja a minutos. Para productoras pequeñas, YouTube creators, agencias de publicidad con presupuesto ajustado, eso es un cambio real. No es que desaparezca la necesidad de buen casting y buena dirección en set (eso siempre va a importar). Es que los errores puntuales ya no arruinan una producción entera.
En cuanto a autenticidad y ética, acá viene lo medio incómodo. A medida que estas herramientas mejoren, va a ser cada vez más difícil distinguir qué fue editado en video y qué fue real. Netflix es consciente de esto y por eso abrió el código: es más fácil que la industria establezca estándares de transparencia si la tecnología está visible, no escondida en cajas negras patentadas.
Errores comunes al usar VOID
Error 1: Asumir que VOID funciona igual que Photoshop. En imágenes estáticas, “quitar un objeto” es geometría plana. En video, es predicción de física en el tiempo. Si probás VOID esperando que funcione como Content-Aware Fill, te va a defraudar. La mentalidad tiene que ser diferente.
Error 2: No prestar atención a la máscara inicial. Gente carga el video, marca cualquier región y espera resultado. La máscara determina qué ve el modelo, así que si es imprecisa, el resultado es basura. Pasá cinco minutos refinando la máscara; vale la pena.
Error 3: Usar VOID para escenas demasiado complejas. Si tu plano tiene 10 personas, 3 animales, fuego, agua y explosiones, VOID no es la herramienta. Mejor hacé compositing tradicional. VOID brilla en escenas claras con pocos elementos a eliminar. Lo explicamos a fondo en infraestructura de deployment para aplicaciones.
Preguntas Frecuentes
¿Qué es Netflix VOID y cómo funciona?
VOID es un modelo de IA open source lanzado por Netflix en abril de 2026 que elimina objetos de videos manteniendo consistencia física. Funciona identificando el objeto a remover, analizando cómo interactúa con el resto de la escena, y generando video nuevo donde ese objeto ya no está pero todo lo demás se comporta de forma realista. Usa quadmasks (máscaras de cuatro capas) y simulación de física basada en los motores Kubric de Netflix.
¿Es VOID mejor que Runway para eliminar objetos?
Según pruebas con usuarios en abril de 2026, sí. VOID obtuvo 64.8% de preferencia frente a 18.4% de Runway. La diferencia principal es que VOID modeliza física real, así que las interacciones entre objetos que quedan en el video son consistentes. Runway es más rápido pero menos preciso en términos de comportamiento físico.
¿Dónde puedo descargar y usar VOID gratuitamente?
VOID está disponible gratis en tres lugares: la demo interactiva en Hugging Face (sin instalación), el código fuente en GitHub (instalación local), y próximamente en plataformas como Runway y Adobe. El código es Apache 2.0 así que el uso comercial está permitido.
¿Cuánto tarda procesar un video con VOID?
Entre 40 y 90 segundos dependiendo de la resolución, duración del video y complejidad de la escena. Videos cortos con pocos objetos a eliminar procesa más rápido. Si hay múltiples interacciones o la GPU es older, puede tardar hasta dos minutos. No es instantáneo como Runway, pero es práctico para workflows de postproducción.
¿Qué requisitos técnicos necesito para usar VOID localmente?
Una GPU con mínimo 8GB de VRAM (16GB es mejor para videos 4K), Python 3.9 o superior, y entre 15-25GB de espacio en disco para el modelo descargado. Si no tenés GPU potente, la opción es usar la demo online en Hugging Face sin instalar nada localmente.
Conclusión
Netflix VOID cambió la ecuación de la eliminación de objetos en video. No por ser “revolucionario” (ese término quedó gastado hace años), sino por resolver un problema específico que otros modelos no resolvían bien: que lo que queda en pantalla siga las leyes de la física.
Para productores, agencias y creators, el impacto es directo: reshoots costosos se convierten en minutos de postproducción. Para presupuestos ajustados, eso es la diferencia entre poder iterar o no. Que Netflix haya abierto el código bajo Apache 2.0 significa que esto va a acelerar la adopción en herramientas de terceros.
Si editás video regularmente y has necesitado eliminar objetos sin romper la escena, VOID vale la pena probar. La demo interactiva es gratis y te toma cinco minutos. Los casos de uso existen; la pregunta es si tu escena es lo suficientemente clara para que VOID la maneje bien. Si es así, ya tenés herramienta.






