Episodio 128. Runway

¿Te imaginas convertir simples descripciones de texto en vídeos realistas? Esto ya no es ciencia ficción: herramientas como Runway están redefiniendo la creación audiovisual. Hola, soy Javier Vega, artista 3D y desarrollador web, y hoy exploraremos cómo la IA está transformando nuestro oficio. Hablaremos de Runway Gen-3 Alpha, sus alternativas… y el polémico debate que genera en la comunidad artística. Al final del episodio, os dejaré una guía gratuita de atajos para Blender y detalles sobre la academia Zao3D. ¡Comenzamos!

¿Qué es Runway?

Runway es una plataforma pionera en IA generativa para video, usada en producciones como Everything Everywhere All at Once (Oscar 2023). Su modelo Gen-3 Alpha (junio 2024) genera clips de 10 segundos con calidad cinematográfica, permitiendo controlar movimiento, estilo visual e incluso transiciones entre escenas mediante prompts como «close-up de un cyborg con piel metálica reflectante, iluminación neon, estilo Blade Runner 2049».

Principales herramientas de Runway:

  1. Gen-1 (2023):
    • Video-to-video. Ejemplo: convertir un boceto animado en un estilo pictórico al óleo.
    • Limitación: Artefactos en movimientos rápidos y baja resolución (720p).
  2. Gen-2 (2023):
    • Texto/Imagen a video. Genera clips de 4 segundos.
    • Caso real: El cortometraje The Frost (2023) utilizó la herramienta de generación de imágenes DALL-E para crear varias escenas, incluyendo una en la que un grupo de personas escala una montaña. El director se inspiró en la película The Blizzard de Akira Kurosawa, donde un montañero se mueve lentamente tras quedar cegado por la nieve. Esta idea influyó en la decisión de mostrar la montaña como un personaje que “ataca” a los investigadores, lanzándoles nieve y temperaturas heladas.
    • El equipo encontró que era relativamente fácil con DALL-E generar personas en una montaña, pero complicado lograr que parecieran investigadores en vez de alpinistas con chaquetas de alta visibilidad y cascos. Respecto al proceso de “out painting”, DALL-E genera imágenes cuadradas que luego se editan para extender el marco hacia la izquierda o la derecha y así obtener planos más amplios. La calidad del resultado depende mucho de la imagen inicial, que se “bloquea” antes de continuar la generación.
    • Para la escena de la avalancha, el equipo buscó capturar la emoción y el terror de ver la nieve acercarse y sepultar a los personajes. El proceso de “in painting” resultó complejo: DALL-E no siempre mantenía la escala correcta (por ejemplo, la cabeza del personaje salía demasiado pequeña o quedaba en el fondo). Para evitarlo, acortaron los prompts y se centraron en el detalle específico que querían obtener.
  3. Gen-3 Alpha (2024):
    • Novedades: Resolución 4K, mejora en anatomía (manos y rostros realistas).
    • Acceso restringido: Solo para socios enterprise y planes premium (desde $95/hora).

Alternativas a Runway

  • Google Veo 2:
    • Genera clips de 60 segundos. Ejemplo oficial: «time-lapse de una semilla creciendo en bosque tropical, 8K».
    • Disponibilidad: Solo para partners de Google Cloud (no público general).
  • Pika Labs:
    • Gratis, pero limitada a 4 segundos/clip y 480p. Ideal para storyboards rápidos.
  • Stable Video Diffusion:
    • Open source, pero requiere GPUs profesionales y conocimientos técnicos avanzados.

Ventajas indiscutibles

Nuevos formatos creativos: Artistas como Glenn Marshall usan Runway para explorar estilos híbridos entre pintura y cine.

Acelera workflows: Reducción de tiempo en tareas repetitivas (ej: creación de storyboards).

Críticas y preocupaciones

En diciembre de 2022, ArtStation tuvo protestas masivas de artistas exigiendo bloquear el scraping de sus obras para entrenar IA. Fuente: The Guardian.

  • Problemas de sesgo
    • Según tests de WIRED (2024), Gen-3 Alpha genera personas caucásicas en el 89% de los casos sin prompts específicos.
  • Conflictos de copyright
    • En enero de 2023, Getty Images demandó a Stability AI (creadores de Stable Diffusion) por usar 12 millones de sus fotos sin permiso. Fuente: Xataka.
  • Impacto laboral:
    • En la huelga de guionistas de Hollywood (2023), uno de los reclamos fue limitar el uso de IA en scripts para proteger empleos.

Debate ético

«La IA no es neutral: refleja los sesgos de sus datos de entrenamiento. ¿Podemos confiar en herramientas que, como denunció WIRED, generan estereotipos culturales? Y lo más importante: ¿debería regularse legalmente el uso de obras artísticas para entrenar estos modelos? La respuesta no es técnica… es humana».

Más preguntas que respuestas

Este viaje por el mundo de la IA aplicada al video nos deja más preguntas que respuestas. ¿Es Runway el futuro o una amenaza? Os invito a debatirlo en redes usando el hashtag #IAyArte3D. No olvidéis descargar la guía gratuita de atajos para Blender en mi web, y si queréis dominar estas herramientas, apuntaos a La Academia de Zao3D. ¡Compartid este episodio si os ha gustado, y nos vemos en la próxima inmersión digital!

The Frost

Para la realización de este cortometraje se usaron herramientas de Inteligencia Artificial.

Enlaces mencionados:

Episodios donde se habla de IA

En el siguiente listado se abordan diversos aspectos de la inteligencia artificial, explorando sus aplicaciones, avances y el impacto que tiene en diferentes ámbitos. A medida que se amplía el contenido, se incorporan nuevos temas, análisis y desarrollos recientes, ofreciendo una visión actualizada y en constante evolución sobre esta tecnología.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Logo de Zao3D
Resumen de privacidad

Esta web utiliza cookies para que podamos ofrecerte la mejor experiencia de usuario posible. La información de las cookies se almacena en tu navegador y realiza funciones tales como reconocerte cuando vuelves a nuestra web o ayudar a nuestro equipo a comprender qué secciones de la web encuentras más interesantes y útiles.

Puedes revisar nuestra política de privacidad.