# Конкурент Sora aprendió a generar videos con montaje complejo
El desarrollador chino Kuaishou presentó la tercera versión del modelo para generación de videos Kling AI.
🚀 Presentamos el Modelo Kling 3.0: Todos un Director. Es Hora.
Un motor creativo todo en uno que permite una creación verdaderamente nativa multimodal.
— Consistencia Sobresaliente: Tus personajes y elementos, siempre sincronizados.
— Producción de Video Flexible: Crea clips de 15s con precisión… pic.twitter.com/CJBILOdMZs
— Kling AI (@Kling_ai) 4 de febrero de 2026
«Kling 3.0 funciona sobre una plataforma de entrenamiento profundamente unificada, que proporciona entrada y salida multimodal verdaderamente nativas. Gracias a la integración fluida de audio y un control avanzado de la coherencia de los elementos, el modelo llena la parte generada con una sensación más fuerte de vida y totalidad», — se indica en el anuncio.
El modelo combina varias tareas: transformación de texto, imágenes y referencias en video, adición o eliminación de contenido, modificación y transformación de clips.
La duración del video se ha incrementado hasta 15 segundos. Entre otras mejoras, una gestión más flexible de los cuadros y un seguimiento preciso de los prompts. Se ha mejorado el realismo general: los movimientos de los personajes ahora son más expresivos y dinámicos.
Comparación entre Kling VIDEO 3.0 y Kling VIDEO 2.6. Fuente: Kling AI. La nueva función Multi-Shot analiza el prompt, determinando la estructura de la escena y los tipos de cuadros. La herramienta ajusta automáticamente los ángulos de la cámara y la composición.
El modelo soporta diversas soluciones de montaje: desde diálogos clásicos en esquema «cuadro-contracuadro» hasta narración paralela y escenas con voz en off.
«Ya no es necesario cortar y montar videos de forma agotadora — una sola generación es suficiente para obtener un clip cinematográfico y hacer que las formas audiovisuales complejas sean accesibles para todos los creadores», — se indica en el anuncio.
Kling 3.0 es realmente “un gran salto para la generación de videos con IA”! ¡Mira este increíble mockumentary de Kling AI Creative Partner Simon Meyer! pic.twitter.com/Iyw919s6OJ
— Kling AI (@Kling_ai) 5 de febrero de 2026
Además de la generación estándar de videos a partir de imágenes, Kling 3.0 soporta varias imágenes como referencias, así como videos fuente en el papel de elementos de la escena.
El modelo fija las características de personajes, objetos y episodios. Independientemente del movimiento de la cámara y el desarrollo de la trama, los objetos clave permanecen estables y coherentes durante todo el video.
Los desarrolladores han mejorado el audio nativo: el sistema sincroniza más precisamente el habla con la mímica, y en escenas con diálogos permite indicar manualmente el hablante específico.
Se ha ampliado la lista de idiomas soportados: chino, inglés, japonés, coreano y español. También se ha mejorado la transmisión de dialectos y acentos.
Además, el equipo actualizó el modelo multimodal O1 a Video 3.0 Omni.
Fuente: Kling AI. Existe la posibilidad de cargar audio con discurso de tres segundos y extraer la voz o grabar un video con un personaje de tres a ocho segundos para obtener sus características principales.
Los competidores de Sora avanzan
OpenAI presentó el modelo de generación de videos Sora en febrero de 2024. La herramienta causó entusiasmo en las redes sociales, aunque el lanzamiento público ocurrió solo en diciembre.
Tras casi un año, los usuarios tuvieron acceso a la generación de videos a partir de descripciones textuales, «dar vida» a imágenes y completar clips ya existentes.
La aplicación para iOS de Sora salió en septiembre y rápidamente llamó la atención del público: en su primer día fue instalada más de 100,000 veces. El servicio superó las 1 millones de descargas más rápido que ChatGPT, a pesar de estar disponible solo por invitación.
Pero pronto la tendencia cambió. En diciembre, las descargas disminuyeron un 32% respecto al mes anterior. En enero, la caída continuó, alcanzando 1,2 millones de descargas.
Fuente: Appfigures. La caída se atribuye a varios factores. En primer lugar, la competencia se intensificó con el modelo Nano Banana de Google, que fortaleció las posiciones de Gemini.
Sora también compite con Meta AI y su función Vibes. En diciembre, la presión en el mercado aumentó con la startup Runway, cuyo modelo Gen 4.5 superó a los analógicos en pruebas independientes.
En segundo lugar, el producto de OpenAI enfrentó problemas de violación de derechos de autor. Los usuarios creaban videos con personajes populares como «Bob Esponja» o «Pikachu», por lo que la compañía tuvo que reforzar las restricciones.
En diciembre, la situación se estabilizó tras un acuerdo con Disney, que permitió a los usuarios generar videos con personajes del estudio. Sin embargo, esto no impulsó las descargas.
Recordemos que en octubre, los deepfakes con Sam Altman inundaron Sora.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
El competidor de Sora ha aprendido a generar videos con montaje complejo - ForkLog: criptomonedas, IA, singularidad, futuro
El desarrollador chino Kuaishou presentó la tercera versión del modelo para generación de videos Kling AI.
El modelo combina varias tareas: transformación de texto, imágenes y referencias en video, adición o eliminación de contenido, modificación y transformación de clips.
La duración del video se ha incrementado hasta 15 segundos. Entre otras mejoras, una gestión más flexible de los cuadros y un seguimiento preciso de los prompts. Se ha mejorado el realismo general: los movimientos de los personajes ahora son más expresivos y dinámicos.
El modelo soporta diversas soluciones de montaje: desde diálogos clásicos en esquema «cuadro-contracuadro» hasta narración paralela y escenas con voz en off.
Además de la generación estándar de videos a partir de imágenes, Kling 3.0 soporta varias imágenes como referencias, así como videos fuente en el papel de elementos de la escena.
El modelo fija las características de personajes, objetos y episodios. Independientemente del movimiento de la cámara y el desarrollo de la trama, los objetos clave permanecen estables y coherentes durante todo el video.
Los desarrolladores han mejorado el audio nativo: el sistema sincroniza más precisamente el habla con la mímica, y en escenas con diálogos permite indicar manualmente el hablante específico.
Se ha ampliado la lista de idiomas soportados: chino, inglés, japonés, coreano y español. También se ha mejorado la transmisión de dialectos y acentos.
Además, el equipo actualizó el modelo multimodal O1 a Video 3.0 Omni.
Los competidores de Sora avanzan
OpenAI presentó el modelo de generación de videos Sora en febrero de 2024. La herramienta causó entusiasmo en las redes sociales, aunque el lanzamiento público ocurrió solo en diciembre.
Tras casi un año, los usuarios tuvieron acceso a la generación de videos a partir de descripciones textuales, «dar vida» a imágenes y completar clips ya existentes.
La aplicación para iOS de Sora salió en septiembre y rápidamente llamó la atención del público: en su primer día fue instalada más de 100,000 veces. El servicio superó las 1 millones de descargas más rápido que ChatGPT, a pesar de estar disponible solo por invitación.
Pero pronto la tendencia cambió. En diciembre, las descargas disminuyeron un 32% respecto al mes anterior. En enero, la caída continuó, alcanzando 1,2 millones de descargas.
Sora también compite con Meta AI y su función Vibes. En diciembre, la presión en el mercado aumentó con la startup Runway, cuyo modelo Gen 4.5 superó a los analógicos en pruebas independientes.
En segundo lugar, el producto de OpenAI enfrentó problemas de violación de derechos de autor. Los usuarios creaban videos con personajes populares como «Bob Esponja» o «Pikachu», por lo que la compañía tuvo que reforzar las restricciones.
En diciembre, la situación se estabilizó tras un acuerdo con Disney, que permitió a los usuarios generar videos con personajes del estudio. Sin embargo, esto no impulsó las descargas.
Recordemos que en octubre, los deepfakes con Sam Altman inundaron Sora.