Многие проекты в первые несколько месяцев показывают незначительную реакцию, настоящие проблемы часто начинают проявляться только через 6-12 месяцев.



Причина довольно очевидна. Данные о поведении пользователей, записи состояния, логи — эти вещи кажутся небольшими по объему — всего лишь десятки КБ в день, но за год их сумма достигает 10-30 ГБ. Традиционное децентрализованное хранение на этом этапе начинает казаться пассивным — каждое обновление требует переписывания данных, исторические версии постоянно накапливаются, связи между ними становятся всё более запутанными.

А что если подойти с другой стороны? Рассматривать "долгосрочное накопление" как исходную предпосылку. Идентичность объекта и его ссылки остаются фиксированными, а состояние может непрерывно развиваться, а не каждый год создавать новый объект. В чем преимущества такого подхода?

Согласно публичным данным, протоколы типа Walrus показывают хорошие результаты: один объект поддерживает объем данных в мегабайтах, один и тот же объект может обновляться несколько раз без изменения связей, данные дублируются между несколькими узлами, обеспечивая стабильность доступности выше 99%.

Реально оценим: когда объем данных переходит в стадию "роста, обусловленного временем", ценность такой архитектуры может оказаться важнее, чем слепое стремление к минимальным затратам. Но при условии, что масштаб сети узлов может расширяться соответствующим образом, иначе накопленные исторические данные могут стать источником нагрузки для системы.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Репост
  • Поделиться
комментарий
0/400
zkNoobvip
· 2ч назад
Ха-ха, вот в чем правда о том, чтобы сбить цену, сначала кажется, что ничего не происходит, а потом всё взрывается
Посмотреть ОригиналОтветить0
MEVHunterNoLossvip
· 01-07 19:57
Годовой объем данных 10-30GB действительно впечатляет, большинство проектов вообще не ожидали такого.
Посмотреть ОригиналОтветить0
NullWhisperervip
· 01-07 19:53
да, задержка в 6-12 месяцев на самом деле является признаком... большинство команд просто не проводят стресс-тестирование в масштабах до тех пор, пока не станет слишком поздно, честно говоря
Посмотреть ОригиналОтветить0
YieldWhisperervip
· 01-07 19:50
Ха, опять этот сценарий "полгода и все баги взрываются"
Посмотреть ОригиналОтветить0
DaoTherapyvip
· 01-07 19:47
Интересно, наконец-то кто-то задел больную точку. За 6 месяцев ничего не видно, через год сразу провал, таких схем я видел слишком много.
Посмотреть ОригиналОтветить0
ApeWithAPlanvip
· 01-07 19:45
Наконец-то кто-то сказал в точку, большинство проектов умирают именно здесь
Посмотреть ОригиналОтветить0
  • Закрепить