逛交流社区時 часто бачите обговорення щодо ланцюгового AI, але більшість постів наголошують на тому, наскільки передові моделі та швидкість логіки. Чесно кажучи, ці точки зору відхиляються від теми.
Дійсно, що стримує розвиток ланцюгового AI, ніколи не алгоритми чи апаратне забезпечення, а питання — куди і як зберігати дані. Уявіть: коли AI-додаток працює на ланцюгу, проміжні результати, журнали логіки, навчальні набори даних — де їх зберігати? Як гарантувати, що дані можна викликати в будь-який час і при цьому вони не будуть змінені або втрачені? Саме це визначає успіх або провал всього проекту.
Нещодавно я ознайомився з технічними рішеннями кількох нових проектів і знайшов одне досить цікаве. Один із проектів зберігає будь-який файл, автоматично розділяючи його на понад 10 фрагментів даних, які зберігаються на різних вузлах. Це число здається випадковим, але насправді воно ретельно обчислене: означає, що один вузол несправний, майже не вплине на систему.
Для ланцюгових AI-додатків цей механізм надзвичайно важливий. Величезні тимчасові дані, що виникають під час тренування моделей (часто у терабайтних обсягах), якщо зберігати на традиційних централізованих серверах, — це катастрофа при збої сервера. Але за допомогою такої розподіленої структури дані природно інтегровані у всю мережу і мають природну стійкість до ризиків. З точки зору дизайну, це нагадує інфраструктуру, спеціально створену для довгострокової роботи ланцюгового AI.
Практична статистика використання ще краще ілюструє проблему. Останні дані з зберігання показують, що понад 30% запитів — це не традиційні медіа, такі як зображення і відео, а структуровані набори даних, файли контрольних точок моделей і навіть журнали логіки виконання. Зміна цієї структури даних підтверджує, що ланцюговий AI стає ключовою сферою застосування для деяких проектів. Той, хто зможе зробити зберігання даних максимально стабільним і ефективним, стане лідером у цій прихованій гонці.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
19 лайків
Нагородити
19
9
Репост
Поділіться
Прокоментувати
0/400
FOMOmonster
· 01-10 12:24
Нарешті хтось сказав у точку, справді втомився слухати ці нісенітниці про моделі та обчислювальні потужності. Збереження даних — це ключовий момент, і це давно вже потрібно було враховувати.
---
Розподілене зберігання — це дійсно круто, але чи є проекти, які можуть стабільно працювати? Я ще не бачив жодного переконливого прикладу.
---
Зачекайте, 30% запитів — це набір даних і журнали? Звідки взялися ці дані, є джерело? Виглядає трохи неправдоподібно.
---
Говорите правильно, але я вважаю, що це все ще надто ідеалізовано, реальні проекти реалізуються зовсім не так гладко.
---
Розподілене зберігання даних у терабайтах звучить круто, але чи можна прийняти затримки і витрати? Чи це знову ідеальний теоретичний план.
---
Справжній вузький місце на ланцюгу AI — це не швидкість, цей підхід дуже новий і вартий глибшого дослідження.
---
10 фрагментів, що зберігаються розподілено... я зрозумів цю логіку, але яка ефективність відновлення? Лише думати про резервне копіювання — не враховуючи швидкість реальних запитів.
Переглянути оригіналвідповісти на0
PrivacyMaximalist
· 01-09 18:30
Правильно, всі говорять про кількість параметрів моделі, але насправді не зосереджуються на головному. Надійність збереження та даних — це ключові фактори, що дозволять дожити до наступного року.
Переглянути оригіналвідповісти на0
OnChainArchaeologist
· 01-07 17:53
Нарешті хтось чітко пояснив, що вже так довго бігати, а питання все ще про швидкість моделі, смішно
Деталь про розподілене зберігання 10 фрагментів — це круто, справжній підхід до інфраструктури
30% запитів — це набори даних і журнали, ця цифра все пояснює, хто робить стабільно — той отримує прибуток
Переглянути оригіналвідповісти на0
UnluckyLemur
· 01-07 17:51
Одним словом, збереження — це справжня захисна стіна ланцюга для AI, ті, хто хвалиться моделями та обчислювальною потужністю, просто самозакохані.
Переглянути оригіналвідповісти на0
PositionPhobia
· 01-07 17:51
哎呀,дані зберігання справді є болючою точкою, яку ігнорують, і в цьому немає помилки
Насправді давно вже досить слухати ті порожні слова про моделі та обчислювальні потужності, головне — чи зможе інфраструктура витримати навантаження
10+ фрагментів розподіленого зберігання — ця логіка дійсно крута, одна точка відмови робить її безглуздою... саме такий підхід до дизайну і є справжнім розмежуванням у галузі
30% трафіку переходить від зображень до наборів даних і контрольних точок моделей, дані говорять самі за себе, і це дуже круто
Конкуренція у зберігаючій інфраструктурі > конкуренція у алгоритмах, я підтримую цю думку
Переглянути оригіналвідповісти на0
ZenZKPlayer
· 01-07 17:48
Дійсно, спочатку мене також відволікали дискусії про параметри моделей і швидкість обчислень, тепер я розумію, що збереження даних — це справжній ключ
Децентралізоване зберігання — ця концепція дійсно крута, 10 фрагментів на розподілених вузлах — дуже продумано, одна точка відмови просто робить систему недієздатною
Дані — це головна проблема на ланцюгу AI, не очікував, що вже 30% запитів — структуровані дані, темпи зростання досить вражаючі
Може бути занадто пізно починати розгортати у цій галузі...
Переглянути оригіналвідповісти на0
ponzi_poet
· 01-07 17:36
О, нарешті хтось сказав у точку, зберігання — це справжня слабка ланка
Децентралізоване зберігання дійсно круте, ідея розподілу на 10 фрагментів і розподілених вузлів заслуговує на похвалу
Якщо централізований сервер зламається, то все пропало — цей ризик надто великий
30% запитів — це структуровані набори даних і файли моделей, ця статистика все пояснює
Проекти, які роблять зберігання максимально стабільним і ефективним, дійсно мають шанс обігнати конкурентів на повороті
Переглянути оригіналвідповісти на0
ReverseTradingGuru
· 01-07 17:34
Зловили, збереження даних — це справжній вузол, ті, хто хвалиться швидкістю моделей, просто створюють шум.
Переглянути оригіналвідповісти на0
GateUser-6bc33122
· 01-07 17:29
Добре, нарешті хтось дійшов до болючого місця. Всі хвалять модель, яка крута, але мало хто розуміє, що саме збереження даних є справжнім Ахіллесовою п’ятою.
Розподілене зберігання 10 фрагментів — це геніально, воно повністю імунне до точкових збоїв, дані обсягом у терабайти можна зберігати будь-де.
30% запитів — це структуровані дані, що свідчить про те, що AI на блокчейні вже починає працювати по-справжньому, а не бути просто проектом у PPT.
Той, хто зробить інфраструктуру зберігання стабільною, стане останнім переможцем.
逛交流社区時 часто бачите обговорення щодо ланцюгового AI, але більшість постів наголошують на тому, наскільки передові моделі та швидкість логіки. Чесно кажучи, ці точки зору відхиляються від теми.
Дійсно, що стримує розвиток ланцюгового AI, ніколи не алгоритми чи апаратне забезпечення, а питання — куди і як зберігати дані. Уявіть: коли AI-додаток працює на ланцюгу, проміжні результати, журнали логіки, навчальні набори даних — де їх зберігати? Як гарантувати, що дані можна викликати в будь-який час і при цьому вони не будуть змінені або втрачені? Саме це визначає успіх або провал всього проекту.
Нещодавно я ознайомився з технічними рішеннями кількох нових проектів і знайшов одне досить цікаве. Один із проектів зберігає будь-який файл, автоматично розділяючи його на понад 10 фрагментів даних, які зберігаються на різних вузлах. Це число здається випадковим, але насправді воно ретельно обчислене: означає, що один вузол несправний, майже не вплине на систему.
Для ланцюгових AI-додатків цей механізм надзвичайно важливий. Величезні тимчасові дані, що виникають під час тренування моделей (часто у терабайтних обсягах), якщо зберігати на традиційних централізованих серверах, — це катастрофа при збої сервера. Але за допомогою такої розподіленої структури дані природно інтегровані у всю мережу і мають природну стійкість до ризиків. З точки зору дизайну, це нагадує інфраструктуру, спеціально створену для довгострокової роботи ланцюгового AI.
Практична статистика використання ще краще ілюструє проблему. Останні дані з зберігання показують, що понад 30% запитів — це не традиційні медіа, такі як зображення і відео, а структуровані набори даних, файли контрольних точок моделей і навіть журнали логіки виконання. Зміна цієї структури даних підтверджує, що ланцюговий AI стає ключовою сферою застосування для деяких проектів. Той, хто зможе зробити зберігання даних максимально стабільним і ефективним, стане лідером у цій прихованій гонці.