En una transmisión en vivo que hice revisando Sora hace unos días en mi canal de YouTube, invité a quienes se conectaron a pasarme prompts en el chat, los cuales copié y pegué para demostrar cómo este modelo sigue evolucionando y sorprendiendo.
Aunque aún se encuentra en una fase experimental, ya empieza a entregar videos con una calidad bastante pulida y realista, demostrando una mayor capacidad para seguir los prompts escritos.
Como muestro en el video compartido al final de este texto, por estos días, esta IA en lugar de generar un solo video cuando se le pide, muchas veces entrega dos (o cuatro opciones diferentes cuando solo se le piden dos). Esto da más variedad para elegir y, de paso, ayuda a seguir mejorando el modelo, ya que cada elección aporta información valiosa para afinarlo.
Sora empieza a cumplir lo que prometió
Cuando recién se liberó Sora para el uso público (aunque solo para quienes pagamos un plan de ChatGPT), fuimos muchos los que quedamos con sentimientos encontrados. Era muy evidente el cherry picking en los videos que nos venían mostrando de los mamuts y los perros en la nieve.
Aunque en algunas ocasiones sí se lograba esperado, en muchas los videos resultando no tenían mucho sentido o carecían de consistencia, los personajes hacían movimientos antinaturales y eso era muy frustrante.
Ahora el cambio no es de un 100%, pero se nota. El generador de videos de OpenAI está dando resultados muy buenos la mayoría de las veces, aunque algunas cosas siguen fuera de su alcance, como generar una secuencia breve, que algo se transforme en otra cosa, por ejemplo, le resulta casi imposible.
Pero, para muchas otras cosas, funciona de maravilla. A continuación, un resumen con los videos que más me gustaron, dentro de los que hice en más de una hora de transmisión en vivo con prompts que me entregaron en el chat. En mi canal se puede también el registro completo de esa transmisión.