# O concorrente Sora aprendeu a gerar vídeos com edição complexa
Desenvolvedor chinês Kuaishou apresentou a terceira versão do modelo para geração de vídeos Kling AI.
🚀 Apresentando o Modelo Kling 3.0: Todos um Diretor. É Hora.
Um motor criativo tudo-em-um que permite uma criação verdadeiramente nativa multimodal.
— Consistência Exemplar: Os seus personagens e elementos, sempre sincronizados.
— Produção de Vídeo Flexível: Crie clips de 15s com precisão… pic.twitter.com/CJBILOdMZs
— Kling AI (@Kling_ai) 4 de fevereiro de 2026
«O Kling 3.0 funciona com base numa plataforma de treino altamente unificada, garantindo uma entrada e saída multimodal verdadeiramente nativas. Graças à integração fluida de áudio e ao controlo avançado de coerência dos elementos, o modelo dá à parte gerada uma sensação mais forte de vida e integridade», — afirma o anúncio.
O modelo combina várias tarefas: transformação de texto, imagens e referências em vídeo, adição ou remoção de conteúdo, modificação e transformação de clipes.
A duração do vídeo aumentou para 15 segundos. Entre outras melhorias estão um controlo mais flexível dos quadros e uma seguimento preciso dos prompts. Aumentou o realismo geral: os movimentos dos personagens tornaram-se mais expressivos e dinâmicos.
Comparação entre Kling VIDEO 3.0 e Kling VIDEO 2.6. Fonte: Kling AI. A nova função Multi-Shot analisa o prompt, determinando a estrutura da cena e os tipos de quadros. A ferramenta ajusta automaticamente os ângulos de câmara e a composição.
O modelo suporta várias soluções de edição: desde diálogos clássicos no esquema “quadro a quadro” até narração paralela e cenas com voz off.
«Já não é necessário cortar e montar vídeos cansativamente — uma única geração é suficiente para obter um clipe cinematográfico e tornar formas audiovisuais complexas acessíveis a todos os criadores», — afirma o anúncio.
Kling 3.0 é realmente “um grande avanço para a geração de vídeos por IA”! Veja este incrível mockumentary do Parceiro Criativo Kling AI Simon Meyer! pic.twitter.com/Iyw919s6OJ
— Kling AI (@Kling_ai) 5 de fevereiro de 2026
Além da geração padrão de vídeos a partir de imagens, Kling 3.0 suporta várias imagens como referências, bem como vídeos de origem como elementos de cena.
O modelo fixa as características dos personagens, objetos e episódios. Independentemente do movimento da câmara e do desenvolvimento da história, os objetos principais permanecem estáveis e coerentes ao longo de todo o vídeo.
Os desenvolvedores melhoraram o áudio nativo: o sistema sincroniza a fala com a mímica com maior precisão, e em cenas de diálogo permite indicar manualmente o orador específico.
A lista de idiomas suportados foi expandida: chinês, inglês, japonês, coreano e espanhol. Também foi aprimorada a transmissão de dialetos e sotaques.
Além disso, a equipa atualizou o modelo multimodal O1 para Video 3.0 Omni.
Fonte: Kling AI. É possível fazer upload de áudio com fala de três segundos e extrair a voz, ou gravar vídeos com personagem de três a oito segundos para obter as suas principais características.
Os concorrentes da Sora avançam
A OpenAI apresentou o modelo de geração de vídeos Sora em fevereiro de 2024. A ferramenta causou entusiasmo nas redes sociais, mas o lançamento público só ocorreu em dezembro.
Quase um ano depois, os utilizadores tiveram acesso à geração de vídeos a partir de descrições textuais, “dar vida” a imagens e complementar vídeos já existentes.
A aplicação iOS do Sora foi lançada em setembro e imediatamente chamou a atenção do público: no primeiro dia, foi instalada mais de 100 000 vezes. O serviço ultrapassou a marca de 1 milhão de downloads mais rapidamente que o ChatGPT, apesar de estar disponível apenas por convite.
No entanto, em breve, a tendência mudou. Em dezembro, o número de downloads caiu 32% em relação ao mês anterior. Em janeiro, a descida continuou — a aplicação foi descarregada 1,2 milhões de vezes.
Fonte: Appfigures. A queda deve-se a vários fatores. Em primeiro lugar, a concorrência foi reforçada pelo modelo Nano Banana do Google, que consolidou a posição do Gemini.
A Sora também compete com a Meta AI e a sua função Vibes. Em dezembro, a pressão no mercado aumentou com a startup Runway, cujo modelo Gen 4.5 superou os concorrentes em testes independentes.
Em segundo lugar, o produto da OpenAI enfrentou problemas de violação de direitos autorais. Os utilizadores criaram vídeos com personagens populares como “Bob Esponja” ou “Pikachu”, levando as empresas a reforçar as restrições.
Em dezembro, a situação estabilizou após um acordo com a Disney, que permitiu aos utilizadores gerar vídeos com personagens do estúdio. No entanto, isso não levou ao aumento dos downloads.
Recordamos que, em outubro, deepfakes com Sam Altman inundaram a Sora.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
O concorrente Sora aprendeu a gerar vídeos com edição complexa - ForkLog: criptomoedas, IA, singularidade, futuro
Desenvolvedor chinês Kuaishou apresentou a terceira versão do modelo para geração de vídeos Kling AI.
O modelo combina várias tarefas: transformação de texto, imagens e referências em vídeo, adição ou remoção de conteúdo, modificação e transformação de clipes.
A duração do vídeo aumentou para 15 segundos. Entre outras melhorias estão um controlo mais flexível dos quadros e uma seguimento preciso dos prompts. Aumentou o realismo geral: os movimentos dos personagens tornaram-se mais expressivos e dinâmicos.
O modelo suporta várias soluções de edição: desde diálogos clássicos no esquema “quadro a quadro” até narração paralela e cenas com voz off.
Além da geração padrão de vídeos a partir de imagens, Kling 3.0 suporta várias imagens como referências, bem como vídeos de origem como elementos de cena.
O modelo fixa as características dos personagens, objetos e episódios. Independentemente do movimento da câmara e do desenvolvimento da história, os objetos principais permanecem estáveis e coerentes ao longo de todo o vídeo.
Os desenvolvedores melhoraram o áudio nativo: o sistema sincroniza a fala com a mímica com maior precisão, e em cenas de diálogo permite indicar manualmente o orador específico.
A lista de idiomas suportados foi expandida: chinês, inglês, japonês, coreano e espanhol. Também foi aprimorada a transmissão de dialetos e sotaques.
Além disso, a equipa atualizou o modelo multimodal O1 para Video 3.0 Omni.
Os concorrentes da Sora avançam
A OpenAI apresentou o modelo de geração de vídeos Sora em fevereiro de 2024. A ferramenta causou entusiasmo nas redes sociais, mas o lançamento público só ocorreu em dezembro.
Quase um ano depois, os utilizadores tiveram acesso à geração de vídeos a partir de descrições textuais, “dar vida” a imagens e complementar vídeos já existentes.
A aplicação iOS do Sora foi lançada em setembro e imediatamente chamou a atenção do público: no primeiro dia, foi instalada mais de 100 000 vezes. O serviço ultrapassou a marca de 1 milhão de downloads mais rapidamente que o ChatGPT, apesar de estar disponível apenas por convite.
No entanto, em breve, a tendência mudou. Em dezembro, o número de downloads caiu 32% em relação ao mês anterior. Em janeiro, a descida continuou — a aplicação foi descarregada 1,2 milhões de vezes.
A Sora também compete com a Meta AI e a sua função Vibes. Em dezembro, a pressão no mercado aumentou com a startup Runway, cujo modelo Gen 4.5 superou os concorrentes em testes independentes.
Em segundo lugar, o produto da OpenAI enfrentou problemas de violação de direitos autorais. Os utilizadores criaram vídeos com personagens populares como “Bob Esponja” ou “Pikachu”, levando as empresas a reforçar as restrições.
Em dezembro, a situação estabilizou após um acordo com a Disney, que permitiu aos utilizadores gerar vídeos com personagens do estúdio. No entanto, isso não levou ao aumento dos downloads.
Recordamos que, em outubro, deepfakes com Sam Altman inundaram a Sora.