Runway GEN-1 es la nueva IA de producción de vídeo que cambiará el mundo de la imagen tal y cómo lo conocemos.
Runway GEN-1 es un modelo de inteligencia artificial que transforma videos existentes en nuevos videos procesados por la IA, modificándolos en función de una referencia o un prompt escrito. Esta herramienta posee un potencial incalculable para la producción de video, pues podemos crear todo aquello que seamos capaces de describir.
Para ayudarte a entender mejor cómo funciona esta nueva herramienta hicimos este video explicativo.
El origen de todo
Runway es la empresa creadora de Runway GEN-1. La compañía se dedica a desarrollar distintas herramientas de producción de video e imagen impulsadas por inteligencia artificial, pero Runway GEN-1 es la primera IA integral que lanzan al mercado.
Entre su catálogo de “magic tools” o herramientas mágicas, encontramos algunas funciones como “texto a etalonaje digital”, “interpolación de fotogramas” que sirve para crear una secuencia de video animada a partir de imágenes independientes, o “imagen infinita” que permite expandir una imagen más allá de sus márgenes originales a partir de IA.
Nuestra misión es construir sistemas de IA multimodales para habilitar nuevos tipos de herramientas de creatividad. En Runway Research nos aseguramos de que el futuro de la creación de contenido sea accesible, controlable y empoderadora para los usuarios.
Así, gran parte de sus esfuerzos están dirigidos a desarrollar herramientas que no solo faciliten la producción de video para los usuarios, sino que además supongan una nueva manera de abordar la creación artística en colaboración con nuevas formas de tecnología. Así, prevemos que el enfoque de esta empresa será definitivo para entender el futuro de la imagen y el video.
Creemos que las técnicas de aprendizaje profundo aplicadas a los contenidos audiovisuales cambiarán para siempre las herramientas del arte, la creatividad y el diseño.
Runway GEN-1
Para utilizar esta inteligencia artificial, lo primero que necesitamos es el video original a partir del cual queremos trabajar. Porque como comentamos anteriormente, esta IA forma parte de la categoría “video to video”, o video a video, a diferencia de otras que son categorizadas como “text to video” o texto a video.
El siguiente paso consiste en definir la referencia. Para esto, añadimos una imagen o un promt escrito, es decir, una descripción detallada de la apariencia que queremos conseguir. La IA utilizará cualquiera de las dos opciones que elijamos como una referencia.
Si nos inclinamos por la opción de la imagen tenemos varias alternativas. En primer lugar, podemos utilizar alguna de las imágenes de prueba que GEN-1 ofrece. Si estamos buscando una apariencia más específica podemos subir una imagen de nuestra elección. Por último, podemos elegir uno de los seis preset u opciones predeterminadas que están disponibles para loso usuarios. Estos serían:
- Claymation
- Paper origami
- Charcoal sketch
- Watercolor
- Pen and ink
- Cloudskape
La última opción para definir la referencia es optar por el prompt escrito. Si eliges esta opción, lo único que hay que hacer es describir la apariencia que deseamos conseguir en nuestro video.
Configuraciones adicionales
Si bajamos en la interfaz inicial encontraremos un panel con una configuración básica. La primera configuración nos permite cambiar la intensidad con la que se aplica el estilo que elegimos. Más abajo encontramos un número llamado randomizer. Este define la posición de los píxeles de ruido entre los fotogramas. Si copias y pegas este número al generar otro video mantendrá la consistencia del estilo.
Si vamos a las opciones avanzadas se despliega un panel con muchas más configuraciones, como aplicar el efecto solo al fondo o solo al primer plano.
Por ahora Gen-1 solo procesa tres segundos de vídeo a la vez, y ofrece hasta 71 segundos gratuitos de producción de video, o lo que es lo mismo, 400 créditos.