La cámara no tiene la culpa: la IA según el CEO de Runway
Con la metáfora de la cámara, Valenzuela defiende cómo entrena sus modelos y sostiene que así acercará Hollywood a todos.
Cristóbal Valenzuela, CEO de Runway, habló recientemente para repasar cinco frentes que marcan la agenda: la evolución interna de la compañía; su modelo de suscripción —aún no rentable, pero millonario—; la disrupción que la IA generativa traerá al trabajo creativo; los dilemas de copyright que amenazan al sector; y, sobre todo, la promesa de “democratizar Hollywood”.
Valenzuela reveló cómo un proyecto universitario de machine learning en 2018 se transformó en una de las empresas que mayor impacto está generando en la intersección de IA generativa y medios audiovisuales. Y también por qué los estudios pagarán cada vez menos por una superproducción y de qué manera la IA puede convertir un archivo muerto de catálogo en una mina de oro.
Semejante combo hace inevitable que lo diseccione en nuestro querido newsletter porque llena… Prácticamente todos los casilleros de temas que solemos tratar.
Runway: pasado, presente y futuro
Los inicios de Runway y la rapidez de la IA
A diferencia de otras empresas de IA generativa que tienen una historia de vida muy corta, Runway ya tiene siete años de recorrido.
En sus inicios, Runway comenzó con un modelo de texto a imagen que apenas pintaba “manchas de 256 píxeles”. Hoy, Gen-4 —el modelo más reciente— genera secuencias de video en 4K de hasta 20 segundos con movimientos complejos. Ese salto, explicó Valenzuela, se debe a la confluencia de tres factores: escala computacional, acceso a datos y mejoras algorítmicas.
Hace un par de años que la empresa organiza festivales y trabaja junto a creadores. Para dar una idea del grado de evolución alcanzado, primero vean lo que uno de los creadores más sofisticados hacía en 2023 con IA generativa, utilizando el modelo de video de Runway de ese año:
Y luego compárenlo con uno de otro creador, hecho en este año con Gen-4:
El estado actual de Runway
Runway opera en la “fase de expansión”, invirtiendo en investigación aún a sabiendas de que cada nuevo modelo exige más GPUs, más datos y más capital.
No obstante, la empresa mantiene una estructura “muy plana” de alrededor de 100 personas, unidas por la idea de que todo el equipo —producto incluido— debe comportarse como un laboratorio: prototipar rápido, descartar rápido y adelantarse a la próxima generación de modelos antes de que los productos actuales queden obsoletos.
Runway se monetiza bajo un modelo de suscripción y ya factura “millones” (sin aún ser rentable). Ya generó algunos acuerdos importantes como el de Lionsgate, el de Fábula y el más reciente con AMC. Mientras las universidades reciben acceso gratuito, los acuerdos con gigantes como Google Cloud —inversionista y proveedor de cómputo— y Nvidia —también inversionista— apuntalan la infraestructura.
¿El objetivo de Valenzuela? Llegar a facturar más millones reduciendo el coste de producción:
“Si estás en el negocio de la publicidad o del cine, gastas cientos de millones de dólares para hacer una sola película. Si logro tomar ese proceso y ayudarte a hacerlo por apenas un par de millones, entonces toda la diferencia —el delta— puedo literalmente cobrarla en función del ahorro que te genero. Con suerte, podré cobrarte mucho menos, para que así puedas hacer más”.
Michael Burns, vicepresidente de Lionsgate, se pronunció recientemente sobre cómo están utilizando las herramientas de Runway y cómo planean hacerlo en el futuro. Su mensaje coincide con el de Valenzuela.
Además de experimentar con la reducción de costos mediante IA generativa para resolver escenas o planos costosos, están produciendo tráilers completos antes de filmar: toman el guion, generan las imágenes y, con ese avance, esperan presentarse en festivales para pre-vender territorios y asegurar financiación.
Pero la ambición va más allá de los proyectos nuevos. Al disponer de un motor generativo entrenado en su biblioteca, Lionsgate puede reempaquetar títulos clásicos y adaptarlos a distintos públicos: suavizar la violencia para conseguir una calificación PG-13, convertir una saga de acción en una versión anime o incluso alterar el tono para mercados específicos.
Cada nueva iteración abre una ventana adicional de licenciamiento sin el coste de una producción desde cero.
La creatividad según Valenzuela
En el terreno creativo, Valenzuela aseguró que Runway no pretende “matar” a las agencias ni a los artistas, sino acortar el tiempo entre la idea y la pantalla. Relató una llamada reciente con un gran estudio: mientras le leían una escena, él generaba en tiempo real un storyboard completo.
Para estos productores, esa velocidad era inimaginable; para él, evidencia de que la IA puede multiplicar la cantidad de proyectos, y con ello, la probabilidad de alcanzar la calidad.
Algo de esta idea se refleja en la opinión de Scott Belsky, Socio de A24, quien sostiene que, aunque el futuro de la creatividad será radicalmente distinto, su horizonte es promisorio.
Belsky cree que las nuevas herramientas de IA generativa multiplican por cien los ciclos de ideación, de modo que guionistas pueden conversar con grandes modelos de lenguaje para tensar la psicología de un personaje o pedir docenas de posibles giros narrativos, mientras cineastas pre-visualizan personajes, vestuarios y escenas con una profundidad antes impensada, sobre todo en proyectos fantásticos o animados.
Lo más prometedor, dice Belsky, es la posibilidad de abaratar la innovación: si los costos de visualizar, experimentar y descartar bajan drásticamente, los grandes estudios —tradicionalmente reacios a asumir riesgos— podrán apostar por historias nuevas y voces inéditas, ampliando el espectro de relatos que llegan al público.
Los productos
Para Nilay Patel (host del podcast donde habló Valenzuela) el riesgo es que los modelos devoren los productos antes de que estos maduren. De hecho, compara la fiebre de la IA con la primera década fallida de Bluetooth hasta la llegada de los AirPods.
Valenzuela reconoce la tensión, pero insiste en que el camino es operar desde “principios”, no “verticales”: si se asume que, tarde o temprano, más píxeles serán generados que filmados, entonces el producto válido será aquel que se sitúe varios pasos por delante de esa certeza.
Este reto no es exclusivo de Runway. En una reciente entrevista con el Financial Times, Demis Hassabis —CEO de Google DeepMind— admitía que el laboratorio debe convertir sus avances en herramientas realmente útiles para los creadores, mientras explora nuevas fronteras de investigación.
De ahí las alianzas activas: Google se asocia con Primordial Soup, el flamante estudio de Darren Aronofsky (más detalles en unas líneas), y Meta prueba sus modelos junto a Blumhouse y Casey Affleck, en busca de feedback directo de cineastas.
El terreno más espinoso…
Derechos de autor
Nilay Patel le recordó a Valenzuela las demandas colectivas que enfrenta el sector y señaló que Runway habría entrenado su modelo con contenido de YouTube.
El CEO admitió que Runway recurre a múltiples convenios de datos —algunos públicos, otros licenciados—, pero evitó desvelar la receta exacta, calificándola de “ventaja competitiva”. Frente a un hipotético fallo judicial adverso, defendió que la solución pasa por “entender mejor qué hace realmente la tecnología, más que por prohibirla”.
Pero también se escudó con una metáfora: la cámara.
Para Valenzuela los modelos no son bases de datos que reproduzcan obras existentes, sino “cámaras” que crean píxeles nuevos a partir de patrones aprendidos. Para aterrizar su argumento, remítanse al relato de Lila Shapiro en Vulture, donde entrevistó a Valenzuela:
Cuando mencioné el ejemplo de alguien que le pide a un modelo que genere un video “al estilo de Wes Anderson”, él dijo que el problema ético recae en el fan de Wes Anderson, no en Runway. “Todavía puedes hacer eso sin sistemas de IA: filmar una película, corregir el color al estilo de Wes Anderson y promocionarla así”, señaló. “Pero quien se meterá en problemas no será la cámara, ni el software de edición, ni la computadora. Serás tú”.
El trabajo
Obviamente, el dilema laboral no pasó inadvertido. Valenzuela recordó los oficios que desaparecieron con la llegada del sonido al cine y de los ascensores automáticos. A su juicio, el reto no radica en proteger los puestos, sino en proteger a las personas, reentrenándolas para lo que viene.
Ve el futuro de la industria como un ecosistema mucho más democrático, donde la barrera de entrada no tiene que ver con la procedencia o credenciales previas, sino la potencia de la idea.
Estas palabras de Valenzuela llegan en un momento en donde salieron a la luz dos casos de uso clave de IA generativa, que pueden dar una idea de cómo integrarla de forma sostenible.
‘Echo Hunter’ es un cortometraje de ciencia ficción de menos de 30 minutos dirigido y escrito por Kavan Cardoza (“Kavan the Kid”) y producido por Arcana Labs. Todo el metraje fue generado con modelos de IA propios (Arcana AI), pero el proyecto cuenta con un elenco totalmente sindicalizado de actores de SAG-AFTRA —entre ellos Breckin Meyer, Taylor John Smith y Danielle Bisutti— cuyas voces, interpretaciones faciales y semejanzas alimentaron a la IA para crear sus versiones virtuales. Este es el resultado final:
Otro que anduvo haciendo ruido últimamente fue Darren Aronofsky, quien fundó Primordial Soup, un estudio concebido para que cineastas experimenten con IA. El núcleo de la iniciativa es una alianza con Google DeepMind y el primer resultado tangible de esta colaboración es ‘Ancestra’, cortometraje escrito y dirigido por Eliza McNitt que mezclará video live action de interpretaciones de actores sindicalizados con visuales generados por IA. La película, inspirada en el propio nacimiento de la directora y construida a partir de archivos familiares y fotos de su padre fallecido, tendrá su estreno mundial mañana en el Tribeca Festival. Este es su trailer:
El futuro
Si tuviese que meterme en la cabeza de Valenzuela, imagino que piensa en un futuro donde:
Para los estudios, la ecuación es clara: cada dólar que se ahorra en rodaje o posproducción puede reciclarse en más riesgos narrativos.
Para los creadores independientes, la barrera de entrada se encoge al tamaño de una GPU en la nube.
Para la audiencia, la promesa (o la amenaza) es un océano de historias que competirán más por relevancia que por presupuesto.
Los desafíos siguen siendo los mismos que hemos venido cubriendo desde que comenzó este newsletter: litigios pendientes, vacíos regulatorios y el desafío social de volver a capacitar talento a la misma velocidad a la que evolucionan los modelos.
NOTICIAS BREVES
Disney y NBCUniversal presentaron una demanda conjunta contra Midjourney, acusándola de infringir derechos de autor al permitir que su generador de imágenes produzca miles de ilustraciones de personajes emblemáticos como Spider-Man, Darth Vader o los Minions sin licencia; los estudios califican a la start-up de “free-rider” que amenaza los incentivos básicos de la industria y exigen daños monetarios e interdicción definitiva, marcando la primera gran ofensiva de Hollywood contra una compañía de IA generativa.
OpenAI asegura que borra los chats de ChatGPT y los datos de su API a los 30 días (o nunca los guarda si el cliente usa Zero Data Retention). La demanda en curso del New York Times exige al tribunal que obligue a OpenAI a conservar todo ese contenido de forma indefinida; pero la empresa lo ve como un abuso que viola las promesas de privacidad hechas a los usuarios.
ElevenLabs lanzó Eleven v3, un modelo de texto a voz que admite 70+ idiomas, diálogos con varias voces y “etiquetas de actuación”.
Sindicatos de animación de EE. UU., Francia, España, Irlanda, Bélgica y otros países convocaron a una protesta en el Festival de Annecy para denunciar el uso de IA generativa en el sector. En un comunicado conjunto, advirtieron que la IA amenaza empleos, creatividad y medio ambiente, calificándola de “máquina de copiar” que abarata costes a costa de los artistas.
En el Banff World Media Festival, Bing Chen (Gold House) advirtió que la IA amenaza con eliminar los empleos de entrada en la industria del entretenimiento, sustituyendo directamente a los jóvenes profesionales. Kevin Johnson (WPP Media) rebatió que aún es pronto para dar por perdida esa batalla y que la tecnología podría generar nuevas oportunidades.
¡Hasta la semana que viene!,
Agustín
Cada vez tengo más recelo cuando se usa "democratizar"... Aunque eso de "democratizar Hollywood" puede venir muy a cuento con la situación actual en LA. ^_^