La compañía liderada por Sam Altman dice que Sora llegará al mercado este año
Pero la competencia está presentando cada vez más alternativas prometedoras
Cuando OpenAI presentó a Sora en febrero de este año quedamos sorprendidos. Si bien habíamos presenciado en directo la evolución de herramientas de generación de imágenes como DALL·E, Midjourney o Stable Diffusion, creíamos que las soluciones de generación de vídeos de gran calidad tardarían en llegar.
Teníamos razones para creer que la compañía liderada por Sam Altman estaba a “años luz” de la competencia. Después de todo, al igual que sucedió con ChatGPT, acababa de mostrar una tecnología que se encontraba a un nivel nunca antes visto. Pero en los últimos meses el panorama ha cambiado notablemente.
Runway Gen-3 Alpha y la competencia de Sora
Resulta que OpenAI no era tan inalcanzable. En cuestión de meses aparecieron en escena una variedad de herramientas destinadas a competir directamente con Sora. Desde china emergieron Vidu y Kling AI, mientras que desde Estados Unidos aparecieron Dream Machine y hace unas horas el nuevo Gen-3 Alpha.
Esta última herramienta ha sido desarrollada por la conocida firma neoyorquina Runway. Gen-3 Alpha llega después de Gen-1 y Gen-2 lanzados en 2023, pero se presenta como el primero de una nueva serie de modelos entrenados en una nueva infraestructura multimodal. Y el modelo presume de muchas novedades.
A diferencia de los productos anteriores de Runway ML, Gen-3 Alpha ofrece una mejora en tres aspectos clave. Por un lado, según lo que explica la compañía, tendrá mayor calidad de imagen. Las representaciones visuales podrán adquirir tonos abstractos o realistas, con un nivel de fidelidad mejorado.
Por otra parte, la compañía promete que su nuevo modelo también dará un salto a nivel de consistencia. Este punto es interesante en cualquier uso profesional donde se pretende conseguir resultados que sigan una línea. De poco sirve que el modelo sea capaz de generar imágenes estupendas, pero diferentes entre sí.
Otro de los aspectos destacados será el movimiento. Aquí los creadores de los modelos suelen mantener un equilibro. Mientras menos movimiento haya, menos posibilidades hay de que surjan patrones indeseados en el vídeo. A mayor movimiento, el riesgo aumenta, pero Runway parece estar abordándolo.
El modelo estará disponible en los próximos días para los suscriptores de Runway con controles avanzados para la generación de escenas, como Motion Brush, Advanced Camera Controls, Director Mode. A todo esto, OpenAI todavía no ha especificado una fecha de lanzamiento de Sora. La compañía dice que llegará “este año”.
Imágenes | Runway
Ver todos los comentarios en https://www.xataka.com
VER 4 Comentarios