La llegada de Sora 2 marca un antes y un después en la generación de video impulsada por inteligencia artificial. Este innovador modelo supera ampliamente a su predecesor al ofrecer física más precisa, animaciones realistas y control total de las escenas generadas. Además, introduce sincronización entre diálogo y efectos de sonido, otorgando una experiencia audiovisual mucho más natural.
OpenAI lanzó Sora 2 como parte de su compromiso por desarrollar modelos de IA que comprendan profundamente el mundo físico. Desde su primera versión en 2024, el sistema evolucionó drásticamente gracias al entrenamiento con grandes volúmenes de datos de video, lo que permitió perfeccionar la simulación del entorno y el comportamiento de los objetos.

Evolución del modelo hacia una simulación más realista
La versión original de Sora representó un hito comparable al “momento GPT-1” para el video. Sin embargo, Sora 2 se sitúa en el punto equivalente a un “momento GPT-3.5”, alcanzando una fidelidad sin precedentes en el movimiento y la física de los objetos.
Este nuevo modelo puede recrear acciones extremadamente complejas: rutinas olímpicas, acrobacias sobre el agua o saltos imposibles, respetando las leyes de la gravedad, la rigidez o la flotabilidad. En lugar de deformar los elementos como solían hacer los sistemas anteriores, Sora 2 simula errores naturales, como un balón que rebota en el aro tras fallar un tiro, añadiendo autenticidad al resultado final.
Control total y creatividad sin límites con Sora 2
Otra de las grandes innovaciones de Sora 2 es su mayor capacidad de control. El modelo puede seguir instrucciones detalladas que abarquen múltiples planos o secuencias sin perder coherencia visual. También admite diferentes estilos, desde cinematográfico hasta anime, con una reproducción minuciosa de texturas, luz y profundidad.
El sistema no solo genera video, sino también audio ambiental, voces y efectos sonoros sincronizados, creando producciones completas dentro de una misma plataforma. Además, permite insertar personas reales u objetos en entornos generados por IA, manteniendo su voz, aspecto y expresiones con sorprendente precisión.
La app Sora 2 y la nueva era del contenido interactivo
El lanzamiento de la nueva app Sora, disponible inicialmente en Estados Unidos y Canadá, introduce una función social llamada “cameos”, que posibilita integrar a usuarios en videos creados con IA. Tras una breve grabación, la aplicación genera una versión digital del usuario que puede aparecer en cualquier escena.
Esta herramienta busca transformar la forma en que las personas crean, colaboran y se comunican visualmente. OpenAI la diseñó priorizando la seguridad, el bienestar digital y la protección de la identidad, ofreciendo controles parentales, moderación humana y transparencia en el uso del contenido generado.
Un paso más hacia la simulación del mundo real
Aunque Sora 2 no es perfecto, su progreso demuestra el potencial de los modelos de video para entrenar inteligencias artificiales que comprendan la realidad física. OpenAI planea incluirlo también en su API y en versiones experimentales para usuarios de ChatGPT Pro.
Con esta evolución, Sora 2 no solo impulsa el entretenimiento digital, sino también el avance hacia sistemas que fusionan creatividad, física y comprensión del entorno. Esta tecnología inaugura una nueva etapa en la generación de video con inteligencia artificial.
Más noticias:
Eliminar subsidio al diésel fue la mejor decisión, señala exministro de Agricultura
Fuente:
https://openai.com/