# Конкурент Sora научился генерировать видео со сложным монтажом
Chuyên gia phát triển Trung Quốc Kuaishou giới thiệu phiên bản thứ ba của mô hình tạo video Kling AI.
🚀 Giới thiệu Mô hình Kling 3.0: Mọi người đều là đạo diễn. Đã đến lúc.
Một động cơ sáng tạo tất cả trong một cho phép tạo nội dung đa phương tiện thực sự bản địa.
— Độ nhất quán tuyệt vời: Nhân vật và yếu tố của bạn luôn luôn cố định.
— Sản xuất video linh hoạt: Tạo clip 15 giây với độ chính xác… pic.twitter.com/CJBILOdMZs
— Kling AI (@Kling_ai) ngày 4 tháng 2 năm 2026
«Kling 3.0 hoạt động dựa trên nền tảng đào tạo đồng nhất sâu, cung cấp đầu vào và đầu ra đa phương tiện thực sự bản địa. Nhờ tích hợp liền mạch âm thanh và kiểm soát sự nhất quán tiên tiến, mô hình làm cho phần được tạo ra cảm giác sống động và toàn vẹn hơn», — theo thông cáo.
Mô hình kết hợp nhiều nhiệm vụ: chuyển đổi văn bản, hình ảnh và tham chiếu thành video, thêm hoặc xóa nội dung, chỉnh sửa và biến đổi các đoạn phim.
Thời lượng video đã tăng lên đến 15 giây. Trong số các cải tiến khác — kiểm soát khung hình linh hoạt hơn và theo sát chính xác các prompt. Tăng cường tính thực tế chung: chuyển động của nhân vật trở nên biểu cảm và năng động hơn.
So sánh Kling VIDEO 3.0 với Kling VIDEO 2.6. Nguồn: Kling AI. Tính năng mới Multi-Shot phân tích prompt, xác định cấu trúc cảnh và loại khung hình. Công cụ tự động điều chỉnh góc máy và bố cục.
Mô hình hỗ trợ nhiều giải pháp chỉnh sửa: từ các cuộc đối thoại cổ điển theo sơ đồ “khung hình-đối khung hình” đến kể chuyện song song và các cảnh có lồng tiếng.
«Không còn cần phải cắt và chỉnh sửa video mệt mỏi — chỉ cần một lần tạo để có được đoạn phim điện ảnh và làm cho các dạng hình ảnh động phức tạp trở nên dễ tiếp cận cho tất cả các nhà sáng tạo», — theo thông cáo.
Kling 3.0 thực sự là “một bước nhảy vọt lớn cho tạo video bằng AI”! Xem đoạn phim giả tài liệu tuyệt vời này từ Đối tác Sáng tạo Kling AI Simon Meyer! pic.twitter.com/Iyw919s6OJ
— Kling AI (@Kling_ai) ngày 5 tháng 2 năm 2026
Ngoài khả năng tạo video theo hình ảnh tiêu chuẩn, Kling 3.0 còn hỗ trợ nhiều hình ảnh làm tham chiếu cùng lúc, cũng như video nguồn làm yếu tố cảnh.
Mô hình ghi nhận đặc điểm của nhân vật, vật thể và cảnh quay. Dù camera di chuyển hay cốt truyện phát triển, các đối tượng chính vẫn giữ ổn định và nhất quán suốt toàn bộ video.
Nhà phát triển đã nâng cấp âm thanh bản địa: hệ thống đồng bộ chính xác hơn giữa lời nói và biểu cảm khuôn mặt, đồng thời trong các cảnh đối thoại cho phép chỉ định thủ công người nói cụ thể.
Danh sách các ngôn ngữ được hỗ trợ đã mở rộng: tiếng Trung, tiếng Anh, tiếng Nhật, tiếng Hàn và tiếng Tây Ban Nha. Đồng thời cải thiện truyền tải các phương ngữ và giọng điệu.
Ngoài ra, nhóm đã cập nhật mô hình đa phương tiện O1 lên Video 3.0 Omni.
Nguồn: Kling AI.Có thể tải lên âm thanh có lời nói từ 3 giây và trích xuất giọng nói hoặc ghi video với nhân vật từ 3 đến 8 giây để lấy đặc điểm chính của họ.
Các đối thủ của Sora tiến tới
OpenAI giới thiệu mô hình tạo video Sora vào tháng 2 năm 2024. Công cụ gây ấn tượng mạnh trên mạng xã hội, tuy nhiên ra mắt chính thức chỉ vào tháng 12.
Gần một năm sau, người dùng đã có thể tạo video dựa trên mô tả văn bản, “hồi sinh” hình ảnh và bổ sung các đoạn phim đã hoàn chỉnh.
Ứng dụng Sora trên iOS ra mắt vào tháng 9 và ngay lập tức thu hút sự chú ý của cộng đồng: trong ngày đầu tiên đã được tải về hơn 100.000 lần. Dịch vụ vượt mốc 1 triệu lượt tải nhanh hơn ChatGPT, mặc dù chỉ có thể mời dùng.
Tuy nhiên, xu hướng đã thay đổi. Vào tháng 12, số lượt tải giảm 32% so với tháng trước. Tháng 1, xu hướng giảm tiếp tục — ứng dụng đã được tải về 1,2 triệu lần.
Nguồn: Appfigures. Sự giảm sút này do nhiều yếu tố gây ra. Thứ nhất, cạnh tranh gay gắt hơn với mô hình Nano Banana của Google, đã củng cố vị thế của Gemini.
Sora cũng cạnh tranh với Meta AI và chức năng Vibes của họ. Tháng 12, áp lực thị trường còn tăng thêm nhờ startup Runway, với mô hình Gen 4.5 vượt trội hơn các đối thủ trong các thử nghiệm độc lập.
Thứ hai, sản phẩm của OpenAI gặp vấn đề về vi phạm bản quyền. Người dùng tạo video với các nhân vật nổi tiếng như “SpongeBob” hoặc “Pikachu”, khiến công ty phải tăng cường hạn chế.
Tháng 12, tình hình ổn định trở lại sau khi ký thỏa thuận với Disney, cho phép người dùng tạo video với các nhân vật của hãng. Tuy nhiên, điều này không làm tăng lượt tải.
Nhắc lại, vào tháng 10, các deepfake có Sam Altman tràn ngập Sora.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Đối thủ của Sora đã học cách tạo ra video với chỉnh sửa phức tạp - ForkLog: tiền điện tử, AI, siêu trí tuệ, tương lai
Chuyên gia phát triển Trung Quốc Kuaishou giới thiệu phiên bản thứ ba của mô hình tạo video Kling AI.
Mô hình kết hợp nhiều nhiệm vụ: chuyển đổi văn bản, hình ảnh và tham chiếu thành video, thêm hoặc xóa nội dung, chỉnh sửa và biến đổi các đoạn phim.
Thời lượng video đã tăng lên đến 15 giây. Trong số các cải tiến khác — kiểm soát khung hình linh hoạt hơn và theo sát chính xác các prompt. Tăng cường tính thực tế chung: chuyển động của nhân vật trở nên biểu cảm và năng động hơn.
Mô hình hỗ trợ nhiều giải pháp chỉnh sửa: từ các cuộc đối thoại cổ điển theo sơ đồ “khung hình-đối khung hình” đến kể chuyện song song và các cảnh có lồng tiếng.
Ngoài khả năng tạo video theo hình ảnh tiêu chuẩn, Kling 3.0 còn hỗ trợ nhiều hình ảnh làm tham chiếu cùng lúc, cũng như video nguồn làm yếu tố cảnh.
Mô hình ghi nhận đặc điểm của nhân vật, vật thể và cảnh quay. Dù camera di chuyển hay cốt truyện phát triển, các đối tượng chính vẫn giữ ổn định và nhất quán suốt toàn bộ video.
Nhà phát triển đã nâng cấp âm thanh bản địa: hệ thống đồng bộ chính xác hơn giữa lời nói và biểu cảm khuôn mặt, đồng thời trong các cảnh đối thoại cho phép chỉ định thủ công người nói cụ thể.
Danh sách các ngôn ngữ được hỗ trợ đã mở rộng: tiếng Trung, tiếng Anh, tiếng Nhật, tiếng Hàn và tiếng Tây Ban Nha. Đồng thời cải thiện truyền tải các phương ngữ và giọng điệu.
Ngoài ra, nhóm đã cập nhật mô hình đa phương tiện O1 lên Video 3.0 Omni.
Các đối thủ của Sora tiến tới
OpenAI giới thiệu mô hình tạo video Sora vào tháng 2 năm 2024. Công cụ gây ấn tượng mạnh trên mạng xã hội, tuy nhiên ra mắt chính thức chỉ vào tháng 12.
Gần một năm sau, người dùng đã có thể tạo video dựa trên mô tả văn bản, “hồi sinh” hình ảnh và bổ sung các đoạn phim đã hoàn chỉnh.
Ứng dụng Sora trên iOS ra mắt vào tháng 9 và ngay lập tức thu hút sự chú ý của cộng đồng: trong ngày đầu tiên đã được tải về hơn 100.000 lần. Dịch vụ vượt mốc 1 triệu lượt tải nhanh hơn ChatGPT, mặc dù chỉ có thể mời dùng.
Tuy nhiên, xu hướng đã thay đổi. Vào tháng 12, số lượt tải giảm 32% so với tháng trước. Tháng 1, xu hướng giảm tiếp tục — ứng dụng đã được tải về 1,2 triệu lần.
Sora cũng cạnh tranh với Meta AI và chức năng Vibes của họ. Tháng 12, áp lực thị trường còn tăng thêm nhờ startup Runway, với mô hình Gen 4.5 vượt trội hơn các đối thủ trong các thử nghiệm độc lập.
Thứ hai, sản phẩm của OpenAI gặp vấn đề về vi phạm bản quyền. Người dùng tạo video với các nhân vật nổi tiếng như “SpongeBob” hoặc “Pikachu”, khiến công ty phải tăng cường hạn chế.
Tháng 12, tình hình ổn định trở lại sau khi ký thỏa thuận với Disney, cho phép người dùng tạo video với các nhân vật của hãng. Tuy nhiên, điều này không làm tăng lượt tải.
Nhắc lại, vào tháng 10, các deepfake có Sam Altman tràn ngập Sora.