Khi lướt qua các cộng đồng giao lưu, bạn thường xuyên thấy các cuộc thảo luận về AI on-chain, nhưng hầu hết các bài viết đều nhấn mạnh mô hình tiên tiến như thế nào, tốc độ suy luận nhanh như thế nào. Thành thật mà nói, những quan điểm này đều đi chệch hướng.
Điểm nghẽn thực sự của AI on-chain không bao giờ là thuật toán hay phần cứng, mà là vấn đề dữ liệu đặt ở đâu và cách đặt như thế nào. Hãy tưởng tượng: các kết quả trung gian, nhật ký suy luận, tập dữ liệu huấn luyện được tạo ra khi một ứng dụng AI chạy on-chain, những thứ này nên lưu trữ ở đâu? Làm cách nào để đảm bảo dữ liệu vừa có thể được gọi bất kỳ lúc nào, vừa không bị làm thay đổi hoặc mất mát? Đây mới là chìa khóa quyết định thành công hay thất bại của toàn bộ dự án.
Gần đây tôi xem xét một số phương pháp kỹ thuật của các dự án mới nổi, có một phát hiện khá thú vị. Cách làm của một dự án là — khi lưu trữ bất kỳ tệp nào, nó sẽ tự động chia thành hơn 10 mảnh dữ liệu, những mảnh này được phân tán lưu trữ trên các nút khác nhau. Con số này thoạt nhìn có vẻ tùy tiện, nhưng thực tế đã được tính toán cẩn thận: điều này có nghĩa là lỗi điểm đơn lẻ gần như không thể gây ảnh hưởng đến hệ thống.
Đối với các ứng dụng AI on-chain, cơ chế này vô cùng quan trọng. Dữ liệu tạm thời khổng lồ được tạo ra khi huấn luyện mô hình (lên tới hàng TB), nếu lưu trữ trên máy chủ tập trung truyền thống, một khi máy chủ gặp sự cố sẽ là thảm họa. Nhưng với cấu trúc lưu trữ phân tán này, dữ liệu vốn đã được nhúng trong toàn bộ mạng, có khả năng chống rủi ro vốn có. Từ lĩnh vực thiết kế, đây giống như cơ sở hạ tầng được sẵn sàng cho hoạt động dài hạn của các ứng dụng AI on-chain.
Nhìn vào thống kê sử dụng thực tế sẽ hiểu rõ hơn vấn đề. Dữ liệu lưu trữ gần đây cho thấy, hơn 30% nội dung yêu cầu không phải là hình ảnh và video những loại phương tiện truyền thống, mà là các tập dữ liệu có cấu trúc, tệp điểm kiểm tra mô hình, thậm chí là nhật ký thực thi suy luận. Sự thay đổi trong cấu trúc dữ liệu này chính xác xác nhận rằng AI on-chain đang trở thành kịch bản ứng dụng cốt lõi của một số dự án. Ai có thể xây dựng cơ sở hạ tầng lưu trữ dữ liệu ổn định nhất, hiệu quả nhất, ai đó có khả năng trở thành người lãnh đạo trên con đường cuộc đua ẩn giấu này.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
15 thích
Phần thưởng
15
7
Đăng lại
Retweed
Bình luận
0/400
OnChainArchaeologist
· 01-07 17:53
Cuối cùng đã có người nói rõ, chạy lâu như vậy mà vẫn còn khoe tốc độ mô hình, thật buồn cười
Chi tiết lưu trữ phân mảnh 10 phần này thật tuyệt vời, là tư duy hạ tầng thực sự
30% yêu cầu là dữ liệu tập hợp và nhật ký, con số này nói lên tất cả, ai làm ổn định thì ăn thịt
Xem bản gốcTrả lời0
UnluckyLemur
· 01-07 17:51
Một câu trúng tủ, lưu trữ mới là lợi thế thực sự của AI trên chuỗi, còn những kẻ khoe mô hình khoe sức mạnh tính toán đều đang tự sướng thôi
Xem bản gốcTrả lời0
PositionPhobia
· 01-07 17:51
Ừ, lưu trữ dữ liệu thực sự là điểm đau bị bỏ qua đúng không nào, nói đúng rồi
Thật ra đã chán ngấy những lời phóng đại về mô hình và sức mạnh tính toán rồi, vấn đề then chốt vẫn là hạ tầng có thể chịu đựng được hay không
10+ phân mảnh lưu trữ phân tán này đúng là tuyệt vời, điểm yếu duy nhất là lỗi điểm đơn lẻ sẽ trực tiếp làm vô hiệu... kiểu thiết kế này mới là sự khác biệt thực sự trong lĩnh vực
30% lưu lượng chuyển từ hình ảnh sang bộ dữ liệu và điểm kiểm tra mô hình, dữ liệu nói lên tất cả, thật sự rất mạnh
Cạnh tranh về hạ tầng lưu trữ > cạnh tranh về thuật toán, tôi đồng ý với nhận định này
Xem bản gốcTrả lời0
ZenZKPlayer
· 01-07 17:48
Thật sự, ban đầu tôi cũng bị những cuộc thảo luận về tham số mô hình, tốc độ suy luận làm xao nhãng, giờ mới hiểu rằng lưu trữ mới là vua
Logic phân tán lưu trữ thực sự tuyệt vời, 10 mảnh phân tán trên các nút, chi tiết này rất chu đáo, lỗi điểm đơn lẻ lập tức bị vô hiệu hóa
Dữ liệu mới là chìa khóa của AI trên chuỗi, không ngờ đã có 30% yêu cầu là dữ liệu có cấu trúc, tốc độ tăng trưởng này khá nhanh
Việc bắt đầu xây dựng trong lĩnh vực lưu trữ bây giờ có phải đã quá muộn không...
Xem bản gốcTrả lời0
ponzi_poet
· 01-07 17:36
Ồ cuối cùng cũng có người nói đúng trọng tâm rồi, lưu trữ mới là điểm yếu thực sự
Lưu trữ phân tán thực sự rất mạnh, thiết kế 10 mảnh ghép phân tán các nút tôi phải khen ngợi
Dữ liệu TB khi máy chủ trung tâm gặp sự cố thì coi như xong, rủi ro này quá lớn
30% yêu cầu là bộ dữ liệu có cấu trúc và tệp mô hình, dữ liệu này nói lên tất cả
Dự án xây dựng nền tảng lưu trữ ổn định và hiệu quả nhất thực sự có cơ hội vượt qua đối thủ
Xem bản gốcTrả lời0
ReverseTradingGuru
· 01-07 17:34
Chính xác rồi, lưu trữ dữ liệu mới là điểm nghẽn thực sự, những kẻ khoe khoang về tốc độ mô hình đều đang tạo ra tiếng ồn.
Xem bản gốcTrả lời0
GateUser-6bc33122
· 01-07 17:29
Được rồi, cuối cùng cũng có người chạm vào điểm yếu. Mọi người đều ca ngợi mô hình quá xuất sắc, nhưng không biết rằng lưu trữ mới là điểm yếu thực sự của Achilles.
Chiến lược phân tán lưu trữ 10 mảnh này thật tuyệt vời, lỗi điểm đơn lẻ hoàn toàn miễn nhiễm, dữ liệu TB thoải mái lưu trữ.
30% các yêu cầu là dữ liệu có cấu trúc, điều này cho thấy AI trên chuỗi đã bắt đầu thực sự nghiêm túc, không còn chỉ là dự án PPT nữa.
Ai làm cho hạ tầng lưu trữ ổn định, người đó chính là người chiến thắng cuối cùng.
Khi lướt qua các cộng đồng giao lưu, bạn thường xuyên thấy các cuộc thảo luận về AI on-chain, nhưng hầu hết các bài viết đều nhấn mạnh mô hình tiên tiến như thế nào, tốc độ suy luận nhanh như thế nào. Thành thật mà nói, những quan điểm này đều đi chệch hướng.
Điểm nghẽn thực sự của AI on-chain không bao giờ là thuật toán hay phần cứng, mà là vấn đề dữ liệu đặt ở đâu và cách đặt như thế nào. Hãy tưởng tượng: các kết quả trung gian, nhật ký suy luận, tập dữ liệu huấn luyện được tạo ra khi một ứng dụng AI chạy on-chain, những thứ này nên lưu trữ ở đâu? Làm cách nào để đảm bảo dữ liệu vừa có thể được gọi bất kỳ lúc nào, vừa không bị làm thay đổi hoặc mất mát? Đây mới là chìa khóa quyết định thành công hay thất bại của toàn bộ dự án.
Gần đây tôi xem xét một số phương pháp kỹ thuật của các dự án mới nổi, có một phát hiện khá thú vị. Cách làm của một dự án là — khi lưu trữ bất kỳ tệp nào, nó sẽ tự động chia thành hơn 10 mảnh dữ liệu, những mảnh này được phân tán lưu trữ trên các nút khác nhau. Con số này thoạt nhìn có vẻ tùy tiện, nhưng thực tế đã được tính toán cẩn thận: điều này có nghĩa là lỗi điểm đơn lẻ gần như không thể gây ảnh hưởng đến hệ thống.
Đối với các ứng dụng AI on-chain, cơ chế này vô cùng quan trọng. Dữ liệu tạm thời khổng lồ được tạo ra khi huấn luyện mô hình (lên tới hàng TB), nếu lưu trữ trên máy chủ tập trung truyền thống, một khi máy chủ gặp sự cố sẽ là thảm họa. Nhưng với cấu trúc lưu trữ phân tán này, dữ liệu vốn đã được nhúng trong toàn bộ mạng, có khả năng chống rủi ro vốn có. Từ lĩnh vực thiết kế, đây giống như cơ sở hạ tầng được sẵn sàng cho hoạt động dài hạn của các ứng dụng AI on-chain.
Nhìn vào thống kê sử dụng thực tế sẽ hiểu rõ hơn vấn đề. Dữ liệu lưu trữ gần đây cho thấy, hơn 30% nội dung yêu cầu không phải là hình ảnh và video những loại phương tiện truyền thống, mà là các tập dữ liệu có cấu trúc, tệp điểm kiểm tra mô hình, thậm chí là nhật ký thực thi suy luận. Sự thay đổi trong cấu trúc dữ liệu này chính xác xác nhận rằng AI on-chain đang trở thành kịch bản ứng dụng cốt lõi của một số dự án. Ai có thể xây dựng cơ sở hạ tầng lưu trữ dữ liệu ổn định nhất, hiệu quả nhất, ai đó có khả năng trở thành người lãnh đạo trên con đường cuộc đua ẩn giấu này.