Fábricas de fan fiction: con la IA, nadie espera permiso
Del jardín amurallado a las autopistas creativas: así se desborda la propiedad intelectual en la era de la IA.
El reciente fenómeno de la “Ghiblificación” —la generación masiva de imágenes al estilo de Studio Ghibli gracias al nuevo modelo de OpenAI— dejó en evidencia lo sencillo que resulta hoy crear contenidos profundamente inspirados en universos estéticos o narrativos ajenos. En cuestión de minutos, miles de usuarios replican y remixan los rasgos distintivos de la obra de Hayao Miyazaki.
Este frenesí desató una oleada de críticas por todos lados: unos reprochan a OpenAI por entrenar su modelo sin acuerdo con el estudio Ghibli; otros, a los creadores que consideran irresponsables y faltos de respeto hacia el autor; y hay quien se pregunta por qué los estudios no hacen nada para proteger su propiedad intelectual.
Sin embargo, detrás de la polémica están los números: OpenAI captó un millón de usuarios en tan solo una hora luego de que se viralizaran las capacidades de su modelo de imagen. Y como bien dice un adagio que guía mi análisis de tendencias, “el comportamiento no se puede predecir, solo observar”. Si prestamos atención, para bien o para mal, descubriremos una clara demanda de productos que exploten estas nuevas posibilidades.
Más allá de los usuarios ocasionales que usan estas herramientas por diversión, existe un ejército de creadores amateurs —desde ilustradores hasta cineastas caseros— deseosos de experimentar con sus franquicias favoritas. Hoy exploro una hipótesis controversial: lejos de ver ese torrente de energía creativa como una amenaza, ¿qué pasaría si pudieramos aprovecharlo?
Por supuesto que este giro de mentalidad desafía uno de los pilares tradicionales del negocio: la idea de que las historias y la propiedad intelectual son bienes sellados bajo llave, accesibles solo con permiso.
Pero la IA generativa está demostrando que, cuando los usuarios responden positivamente y dedican tiempo y talento a co-crear contenido de calidad, vale la pena replantear ese modelo “cerrado”. Paréntesis rápido: el tema de licencias y datasets lo guardo para otra entrega. En esta me centro, sobre todo, en lo que hacen los fans‑creadores y los dueños de las franquicias.
Si hay una audiencia dispuesta a invertir horas y entusiasmo en enriquecer un universo narrativo, y también la IA generativa está dandoles cada vez más recursos para elevar la calidad, ¿por qué los grandes estudios siguen atrincherados en la rigidez de una propiedad intelectual (PI) inaccesible? ¿Cómo podrían, en lugar de ignorar o criminalizar esa creatividad, facilitar y canalizar ese flujo de talento? Y, sobre todo, ¿qué ganarían y qué riesgos correrían al hacerlo?
El problema ya es real
‘The Ghost’s Apprentice’ y la encrucijada del jardín amurallado
En febrero de 2025, Kavan Cardoza —conocido en YouTube como Kavan the Kid— publicó ‘Star Wars – The Ghost’s Apprentice’, un cortometraje que recrea con sorprendente fidelidad la atmósfera de la saga usando Google Veo2, Midjourney y Runway. Ya lleva más de 320 mil visualizaciones, sin recurrir a ningún personaje, planeta o metraje oficial. Disney no emitió ninguna orden de retirada.
Es una omisión llamativa, si tenemos en cuenta las recientes palabras de Bob Iger, CEO de Disney, quien en la última junta de accionistas definió la IA como “quizá la tecnología más poderosa que nuestra compañía haya visto jamás”, pero adelantó que también estarán atentos a proteger la PI de la compañía.
Esta encrucijada revela la tensión entre un modelo de jardín amurallado, en el que cada fragmento de PI se cuida como un tesoro, y la realidad de un universo creativo desbordado por la IA.
En una reciente entrevista en YouTube, el emprendedor Tom Paton ya advirtió que, en un futuro cercano, una “fábrica de contenido no autorizado” en cualquier rincón del mundo podría emplear cien creadores y herramientas de IA para producir miles de guiones y videos no autorizados, inundando Internet y erosionando el control de los titulares de derechos.
AI Trailer Wars
Hace algunos días YouTube suspendió la monetización de los canales Screen Culture y KH Studio tras una investigación de Deadline que reveló cómo ambos crean falsos tráilers de cine alimentados por IA.
Screen Culture imitaba tráileres oficiales de franquicias como ‘The Fantastic Four: First Steps’ o ‘Superman’, añadiendo imágenes generadas por IA para atraer a grandes comunidades de fans. Mientras que KH Studio proponía versiones imaginarias de éxitos de taquilla (un James Bond con Henry Cavill y Margot Robbie, o una nueva temporada de ‘Squid Game’ con Leonardo DiCaprio).
Aunque estudios como Warner Bros. Discovery y Sony solicitaban en secreto que los ingresos publicitarios de estos vídeos fluyeran hacia ellos, YouTube consideró que violaban sus normas de monetización (contenido duplicado, manipulaciones engañosas y uso no transformativo de material ajeno) y los excluyó de su programa de socios. Ambos canales pueden apelar la decisión.
Sus responsables defienden que su intención es explorar ideas “what if” y que “la mayoría de los usuarios sabe diferenciar estos tráileres de los oficiales”. Con esta estrategia Screen Culture sumó 1,4 millones de suscriptores y 1,4 mil millones de visualizaciones, con ingresos que, según su fundador, ascienden a varios millones de dólares.
El juego sin fin
Este fenómeno deja al descubierto la posible ineficacia a largo plazo de perseguir cada infracción: con herramientas como Google Veo2, Midjourney y Runway al alcance de cualquiera, las “fábricas de contenido no autorizado” pueden reproducir trailers falsos en cuestión de días.
Intentar cerrar todos esos canales puede convertirse en un futuro en un juego sin fin, que consume recursos y no frena la marea de contenido engañoso. También hay diferencias de mérito creativo entre estos trailers y cortos como ‘The Ghost’s Apprentice’, que parten de un genuiono entusiasmo por contar una nueva historia dentro de un mundo que apasiona al creador.
Si la PI “cerrada” ya no basta para frenar el torrente de contenido generado por IA, convertir ese torrente en un activo aparece como una opción tentadora.
La teoría
La PI como plataforma
Pensar a la propiedad intelectual como una plataforma no es algo nuevo. En su ensayo de 2023 “IP as Platform”, el consultor Doug Shapiro defiende que los estudios abracen la co‑creación de los fans en lugar de combatirla. Parte de dos observaciones difíciles de refutar:
La tecnología siempre reduce barreras y costos, permitiendo “hacer más con menos”.
El caudal creativo colectivo de millones de aficionados supera con creces al de los pocos profesionales que tradicionalmente controlan la producción.
Si la IA generativa (Shapiro también suma a la producción virtual dentro de esta argumentación) va a diluir la frontera entre contenido profesional y amateur, la mejor estrategia es convertir la propiedad intelectual en una plataforma: un mercado multilateral donde los fans dispongan de herramientas y permisos para crear, y el estudio actúe como curador y distribuidor del mejor material. Así, la co‑creación deja de ser una amenaza y se convierte en una fuente de innovación, engagement y nuevas vías de ingresos.
Shapiro describe siete componentes clave para hacer realidad este modelo:
Packs oficiales de assets: Personajes, escenarios, vehículos, props, música y efectos.
Derechos de imagen/persona asegurados: Garantizar que los assets no infringen contratos de actores ni terceros (por ejemplo, la apariencia de un Tony Stark digital).
Marco legal y licencias: Términos claros y lo más permisivos posible, con guardrails contra usos obscenos o que dañen la marca, y cláusulas de salvaguarda frente a reclamaciones de los creadores.
Plataforma de distribución oficial: Un canal propio —dentro del servicio de streaming o en YouTube/TikTok dedicados— donde los fans publiquen, comenten y descubran contenido.
Validación y recompensa: Curación editorial, sellos de aprobación (“Featured Fan Film”), concursos y la posibilidad de contratar a los creadores más talentosos.
Modelo económico y reparto de ingresos: Un esquema transparente para compartir los beneficios derivados de las obras fan, alineando incentivos entre estudio y comunidad.
Gestión del canon: Definir qué historias son oficiales y cuáles quedan fuera, preservando la coherencia narrativa.
Bajo esta arquitectura, el estudio transforma la marea inevitable de contenido generado por usuarios en un ecosistema vivo, donde las fronteras entre productor, creador y audiencia se difuminan.
El contenido se está volviendo líquido
Matthieu Lorrain trabaja como Creative Lead en Google Deepmind, y es una de las voces más escuchadas en materia del cruce de IA y creatividad. Hace un tiempo que viene impulsando el concepto de “Contenido Líquido”.
La idea central es que gracias a la IA generativa el contenido se volverá mucho más maleable que antes. Esta adaptación dinámica puede ocurrir a través de múltiples dimensiones y basándose en diversas modalidades contextuales, como la ubicación, la hora del día o el historial de contenido del usuario.
Lorrain ilustra el concepto de contenido líquido con ejemplos, actuales y futuros, en diferentes dimensiones:
Tiempo: El contenido puede cambiar dinámicamente su duración, adaptándose a las necesidades o la capacidad de atención del espectador.
Espacio: El contenido puede adaptarse a diferentes formatos de visualización, como pantallas de móviles (de horizontal a vertical), televisores o incluso realidad aumentada (RA) y realidad extendida (XR), transformando contenido 2D en experiencias 3D inmersivas.
Interactividad: El contenido puede ofrecer interactividad bajo demanda, permitiendo al usuario elegir si quiere ver el contenido de forma pasiva o interactuar con él en momentos específicos, como detener un video para hablar con un personaje o controlar la cámara en una repetición deportiva.
Dirección artística: La estética visual del contenido puede modificarse, por ejemplo, cambiando el estilo de una película de ciencia ficción a anime.
Historia: La narrativa misma puede personalizarse, con elementos como los personajes o el contexto adaptándose a las preferencias del espectador.
Lorrain enfatiza que el contenido líquido no se trata solo de tecnología, sino también de la convergencia de los comportamientos culturales y la tecnología. Cree que estamos entrando en una era de "hipercreatividad" donde el contenido líquido jugará un papel importante.
Ok, ¿y la práctica?
La convergencia de las visiones de Shapiro y Lorrain apunta hacia un futuro nuevo ecosistema creativo en el que la propiedad intelectual deja de ser un sistema cerrado para convertirse en una plataforma viva y en el que el contenido se moldea en función del contexto y las preferencias de cada usuario.
Estas ideas, que suenan lejanas en muchos aspectos, ya tienen exponentes que empiezan a experimentar con ellas.
Dos exponentes
Showrunner
Fable Studio presentó en 2023 ‘The Simulation’, un experimento para poblar un mundo virtual con agentes autónomos. De ese proyecto nació SHOW-1, un modelo de IA que permite escribir guiones, planificar planos, sintetizar voces y animar escenas de forma colaborativa. Para demostrar su potencial, la compañía uso el modelo para generar “episodios no autorizados” de ‘South Park’. (Provocando en su momento el rechazo inmediato de la Writers Guild y SAG‑AFTRA, como podrán imaginar). Para conocer más en detalle el funcionamiento de SHOW-1 pueden leer este paper.
En junio de 2024, Fable anunció Showrunner, una plataforma que usa como base SHOW-1 y donde los futuros usuarios podrán crear contenido derivado de series animadas propias que la compañía desarrolló, tales como ‘Exit Valley’, ‘Ikiru Shinu’, ‘Sim Francisco’.
Los usuarios podrán seleccionar la serie de la cual quieren crear contenido y moldearlo en base a sus preferencias: qué personajes de ese mundo narrativo quieren utilizar, de qué se tratará el episodio, en dónde transcurrirá, etc. Podrán incluso remixar episodios existentes o hasta crear sus propios shows dentro de la plataforma.
Showrunner promete también un sistema de incentivos que comparta ingresos con los creadores cuyas propuestas entren al catálogo oficial.
No hay una fecha de lanzamiento confirmada para la plataforma, pero a principios de este año Showrunner me dio acceso anticipado a la versión Alpha en Discord y puedo asegurar que funciona. Incluso mejor de lo que creí. No puedo contar mucho porque firmé un riguroso NDA… Aunque sí puedo adelantar algo. De las dos series con las que pude experimentar, ambas usan la técnica frame interpolation. Esto ayuda notablemente a la consistencia y calidad del contenido generado, ya que salta por encima varias de las limitaciones actuales de la IA generativa.
Emergence
Emergence es la nueva franquicia de ciencia ficción ideada por David S. Goyer, reconocido por su trabajo en la trilogía de ‘The Dark Knight’, y desarrollada junto a Incention, una plataforma que combina IA y blockchain.
La trama de Emergence parte de un misterioso agujero blanco en una galaxia remota, punto de partida de un universo narrativo que se desplegará en múltiples formatos: podcasts, cómics y animaciones. Hay incluso una biblia desarrollada con todos los detalles de la historia y el mundo que pueden leer aquí. La idea es que los usuarios retomen el universo narrativo creado por Goyer y lo amplíen con sus propias historias.
Detrás de este ambicioso proyecto se encuentra Story, una plataforma basada en blockchain y potenciada por IA que permite a creadores y comunidades participar activamente en la evolución de la historia. Gracias a Atlas, una herramienta de IA generativa, los potenciales futuros narradores cuentan con un socio creativo capaz de sugerir ideas, redactar guiones y producir contenido audiovisual.
Además, Atlas gestiona de forma autónoma las redes sociales, analiza el sentimiento de la audiencia y ajusta las tramas en tiempo real según el feedback recibido. Por último, los smart contracts integrados en la plataforma gestionan las licencias, derechos de autor y reparto de ingresos, asegurando que cada contribución quede registrada y recompensada.
Todo lo que acabo de explicar fue comunicado por la compañía y suena muy bien, en teoría. Sin una fecha de lanzamiento oficial, y sin tener acceso todavía a la versión anticipada, todavía queda por ver la performance de la experiencia.
Los interrogantes
Ambos proyectos parten de PI nueva, por lo que antes que nada tanto Showrunner como Emergence deben logran que estas historias conecten con audiencias, al igual que cualquier otro contenido disponible. Luego, será importante ver cómo los usuarios reaccionan a la experiencia de creación y si los incentivos que ambas compañías planean emplear (compensación y reconocimiento) son suficientes para atraerlos y mantenerlos.
La evolución técnica: hacia historias más largas y complejas
Hasta hace poco, los modelos de IA generativa de video solo producían clips muy breves —apenas unos segundos— con narrativas simples. ¿Qué distingue a Kavan the Kid de un usuario casual? Él domina el lenguaje audiovisual: sabe dirigir, montar y escribir, e integra varias herramientas de IA generativa en un flujo de producción coherente.
Ahora, nuevas técnicas están rebajando aún más las barreras de entrada, reduciendo la fricción y la complejidad del proceso creativo.
Un ejemplo reciente especialmente relevante es el paper presentado en CVPR 2025 por investigadores de Stanford, UC Berkeley y NVIDIA, donde se introduce una arquitectura capaz de generar videos de un minuto con historias complejas, múltiples escenas y coherencia narrativa, a partir de guiones escritos.
La clave está en las Test-Time Training Layers (TTT), un tipo de capa que permite que el modelo “aprenda” incluso durante la inferencia, adaptando dinámicamente su estado interno a cada secuencia específica. Esta técnica mejora la capacidad del modelo para sostener una historia en el tiempo sin perder consistencia, algo fundamental para contar relatos con intención dramática o evolución emocional.
Para probar el sistema, los autores crearon un dataset basado en dibujos animados de ‘Tom y Jerry’, y mostraron que sus videos generados eran significativamente más coherentes que los de otros modelos. Aquí pueden ver un ejemplo del resultado:
Este tipo de avance técnico refuerza el potencial de plataformas de co-creación impulsadas por IA: no se trata solo de generar imágenes sueltas, sino de contar historias enteras —con ritmo, personajes y emoción—.
El usuario PJ Ace incluso especuló con que, gracias a avances como este, estamos a punto de entrar en una carrera por adquirir PI “dormido” de décadas pasadas y generar episodios a bajo costo. De hecho, anunció que él mismo ya está en conversaciones con estudios de Japón que están interesados en hacerlo.
Follow the money
Runway y Lionsgate, what if?
En abril, Runway cerró una Serie D de $308 millones liderada por General Atlantic, valorándose en más de $3 mil millones, casi el doble de su valuación de 2023. Con esta inyección, el CEO de la compañía anunció que Runway impulsará sus world simulators, sistemas de IA que modelan internamente entornos y simulan eventos futuros, y expande Runway Studios, su estudio de cine y animación con inteligencia artificial, “dedicado a producir contenido original utilizando modelos fundacionales de última generación desarrollados por nuestro equipo de investigación”.
Hace algunas semanas el autor Andrew Rosen en conversación con Edward Saatchi, CEO de Fable, especuló incluso sobre un posible escenario futuro en donde Runway colabora con Lionsgate para crear en conjunto con usuarios contenido derivado de su PI, haciendo uso del acuerdo firmado el año pasado, en donde Runway accedió al catálogo de la compañía para entrenar un modelo fine tuned.
(¿Alguien tiene ganas de pensar conmigo una versión alternativa de ‘John Wick’ en la que su perra no muera?)
En busca del próximo Wattpad
Andreessen Horowitz (a16z), siempre activos en el campo de la IA y entretenimiento, lanzó una convocatoria para startups que estén explorando el desarrollo de plataformas UGC (user-generated content) potenciadas por agentes de IA dedicados a la narrativa creativa.
La propuesta apunta a una nueva generación de entornos como Wattpad (100 millones de usuarios ingresan al mes a leer fan fiction) o Roblox, pero donde agentes inteligentes colaboren activamente con los usuarios para transformar ideas en relatos transmedia. a16z apuesta a que la IA nivele el terreno entre los recursos que tienen los profesionales y los que tienen el resto de usuarios corrientes.
Para a16z la plataforma ideal tendría un agente creativo de IA que ayude con storyboards, generación de assets, código y orquestación narrativa; un flujo de trabajo integrado de principio a fin, donde todo —desde la investigación hasta la ejecución— ocurra sin salir de la misma interfaz; un sistema de creación por voz que permita desarrollar historias simplemente hablando; funcionalidad multijugador que convierta la narración en una experiencia social compartida; y una estrategia de lanzamiento centrada en una vertical de nicho (como anime o romantasy) que garantice contenido sobresaliente, en lugar de apostar por un catálogo genérico.
Cuando leí el anuncio, hecho por Jonathan Lai, le consulté si estaban pensando esta potencial nueva plataforma UGC como una que permita crear contenido derivado basado en PI existente, o si el enfoque está más puesto en generar propiedad intelectual original desde cero. Ya que el ejemplo de Wattpad sugiere que jugar dentro de universos conocidos podría ser una buena puerta de entrada para los usuarios. Su respuesta fue:
“Podrían ser ambas cosas —creo que el mayor potencial está en las personas que creen universos originales que se conviertan en el próximo ‘Harry Potter’, ‘Fourth Wing’, etc.— pero pienso que eso será solo un pequeño subconjunto de usuarios, y que la mayoría probablemente querrá crear fan fiction o trabajos inspirados en PI’s que ya conocen y aman”.
Jonathan Lai.
Solo una parte, pero importante, de la ecuación
Seguir el flujo del dinero no es solo una forma de rastrear qué compañías están creciendo, sino una brújula para anticipar hacia dónde se dirige la industria.
Las inversiones recientes en plataformas como Runway y los llamados abiertos de fondos como a16z revelan no solo entusiasmo tecnológico, sino una convicción estratégica: que el próximo gran salto en el entretenimiento no vendrá únicamente de Hollywood, sino de nuevos ecosistemas donde creadores impulsados por IA generen propiedad intelectual a escala masiva.
Entender dónde se está colocando el capital permite leer las apuestas más serias sobre el futuro del contenido, detectar las fronteras de innovación y, sobre todo, anticipar qué modelos de negocio y creación están por redefinir el mainstream.
¡Objeción!
Obviamente no todo el mundo ve este futuro posible con optimismo. Estudios, sindicatos y analistas legales plantean objeciones legítimas que vale la pena considerar. A continuación, las principales:
Dilución de marca y pérdida de control narrativo: Abrir el acceso a assets oficiales implica que cualquier creador —sin importar su experiencia o calidad— pueda producir contenido bajo el paraguas de una franquicia. Esto puede erosionar la coherencia estética y narrativa, generando confusión entre el contenido “oficial” y el “fan”, y debilitando el valor simbólico de la marca. Aún empleando guardrails no deja de ser algo complejo de controlar.
Complejidades legales y territoriales: El marco jurídico necesario para habilitar la co-creación a gran escala —con contratos inteligentes y licencias claras— podría considerarse costoso y difícil de estandarizar. Las normativas de fair use, derechos de imagen y propiedad intelectual varían por país.
Cannibalización de ingresos y tensiones gremiales: Compartir ingresos con creaciones derivadas podría restar valor a las producciones oficiales o al negocio de licencias tradicionales (juguetes, videojuegos, merchandising). Además, algunos creadores profesionales temen que su trabajo se vea desplazado por producciones low cost que capturan atención masiva sin respetar los mismos estándares ni condiciones laborales.
Saturación de contenido y sobrecarga de atención: Un ecosistema desbordado de fan films, mods y spin-offs puede ahogar las narrativas principales, dificultando que el público descubra y valore el contenido “canónico”. Todo esto sumado a la actual “manía de la PI” que ya ha comenzado a desplazar producciones originales en plataformas de streaming, amenazando la diversidad creativa.
Costes operativos y gobernanza comunitaria: Lanzar una plataforma oficial de UGC no es trivial. Requiere infraestructura tecnológica, herramientas de moderación, atención a creadores y un equipo capaz de resolver conflictos dentro de la comunidad. A mayor escala, más difícil se vuelve mantener un entorno saludable, justo y alineado con los valores de la marca.
Desbalance entre valor creado y valor capturado: Muchos fans pueden dedicar horas de trabajo sin una compensación proporcional, alimentando un modelo donde la “economía de la atención” beneficia sobre todo al estudio. La visibilidad no siempre alcanza, y si no se establecen sistemas de recompensa transparentes y justos, pueden surgir tensiones éticas sobre la explotación del trabajo gratuito.
Desigualdad de visibilidad y efecto “winner-takes-all”: A diferencia de plataformas como Uber o Android, que gozan de fuertes efectos de red, los ecosistemas abiertos de IP no garantizan igualdad de oportunidades. Las franquicias más populares tienden a concentrar la atención y los recursos, dejando poco espacio para narrativas emergentes o universos menos conocidos.
En busca de un equilibrio complejo
El modelo IP as a Platform representa una oportunidad real de redefinir la relación entre estudios y audiencias, pero su implementación exige, a priori, equilibrio complejo: apertura sin perder control, incentivos claros sin explotación, curación sin censura, y tecnología sin perder de vista lo “humano” (historias y personajes que conecten emocionalmente con audiencias).
Como suele ocurrir en los grandes cambios tecnológicos, el mayor desafío no es técnico, sino institucional: cómo crear reglas, incentivos y estructuras que permitan que esta innovación se despliegue sin generar caos o desigualdad.
La única certeza es que todas las señales apuntan a que efectivamente la creatividad se está volviendo líquida. Y lo líquido, por definición, encuentra siempre una grieta por donde fluir. Aún en las murallas más sólidas.
Noticias breves de esta semana
Netflix comenzó a probar un buscador impulsado por OpenAI que permite a los usuarios encontrar contenidos con descripciones mucho más precisas —incluso por estado de ánimo—, superando las búsquedas tradicionales por género o actor. La función, opcional, ya está disponible en iOS para algunos suscriptores de Australia y Nueva Zelanda y se ampliará a EE. UU. en las próximas semanas.
YouTube amplió su programa piloto que permite a figuras públicas controlar su imagen en la plataforma. Creadores como MrBeast, MKBHD y Mark Rober probarán la herramienta, que detecta contenido generado con IA que usa su apariencia o voz y les ofrece la opción de solicitar su retirada. El piloto, surgido de una alianza previa con la agencia CAA, se anuncia mientras en el Congreso de EE. UU. se vuelve a presentar la ley NO FAKES, destinada a proteger a artistas y creadores frente a imitaciones digitales.
Fremantle (RTL Group) lanzó Imaginae Studios, un sello independiente dedicado a integrar IA en la producción. Liderado por Andrea Scrosati, el estudio buscará contratar nuevos creadores para “desarrollar contenidos innovadores, asegurando altos estándares de propiedad intelectual y cumplimiento normativo”.
Kuaishou presentó Kling AI 2.0, una versión mejorada de su modelo generador de video que la compañía califica como “el más potente del mundo”. El lanzamiento refuerza la competencia de los gigantes chinos (ByteDance, Alibaba, Tencent) frente a modelos como Sora de OpenAI y Veo 2 de Google.
James Cameron ve con optimismo el uso de la IA generativa para agilizar y abaratar los efectos visuales, pero rechaza los prompts “in the style of James Cameron” por cuestiones éticas. El director, ahora en el directorio de Stability AI, sostiene que la regulación debería centrarse en los outputs (lo que se produce) más que en los datos de entrenamiento, y prevé que desarrolladores boutique (no gigantes como OpenAI o Meta) serán los socios clave para las necesidades específicas de Hollywood.
El estudio EDGLRD de Harmony Korine firmó un acuerdo first‑look con Runway que le dará acceso preferencial a las herramientas de IA generativa de la firma neoyorquina para proyectos de cine, piezas inmersivas y contenidos de marca, mientras Runway podrá presentar ideas a EDGLRD.
OpenAI presentó GPT‑4.1, sucesor de GPT‑4o. Llega en tres versiones: estándar, Mini y Nano. GPT‑4.1 sustituirá a GPT‑4 en ChatGPT el 30 de abril, mientras GPT‑5 se retrasa “unos meses”.
¡Hasta la semana que viene!
Agustín