У недавньому виступі на X Віталік Бутерін висловив провокаційну тезу, яка кидає виклик поширеним припущенням у галузі блокчейн: пріоритет розширення пропускної здатності є за своєю суттю безпечнішим для Ethereum, ніж агресивне зменшення затримки.
Перевірений шлях до масштабованості
За підтримки технологій таких як PeerDAS і ZKP, спільнота Ethereum намітила чіткий шлях до досягнення масових розширень. Теоретичні прогнози вказують на тисячократне збільшення у порівнянні з поточною здатністю. Технічні параметри значно покращуються як до, так і після впровадження цих масштабувальних рішень. З фізичної точки зору, немає фундаментальної перешкоди для поєднання “екстремальної масштабності” з “міцною децентралізацією”.
Однак реальність інша, коли мова йде про затримку. Обмеження, накладені швидкістю світла, становлять лише частину проблеми. Практичні обмеження є ще більш обмежувальними: вузли повинні працювати глобально у сільських районах, житлових будинках і комерційних закладах, а не лише у спеціалізованих дата-центрах. Оператори вузлів, особливо валідатори, потребують стійкості до цензури та гарантій анонімності.
Економічна дилема децентралізації
Постає незручне питання: якщо запуск валідатора стейкінгу поза Нью-Йорком зменшує доходи на 10%, скільки часу мине, перш ніж більшість валідаторів перейде до провідних фінансових центрів? Це явище поступово погіршить справжню децентралізацію мережі.
Ethereum має пройти “іспит залишення”, що означає, що мережа не може залежати від постійної соціальної координації для збереження свого розподіленого характеру. Економічні стимули повинні підтримувати більшу частину системи, хоча не можуть нести всю відповідальність.
Практичні покращення у межах можливого
Без структурних компромісів можливо помірно зменшити затримку. Досягнення у мережах P2P, особливо за допомогою кодів стирання, можуть зменшити час поширення повідомлень без необхідності, щоб окремі вузли збільшували свою пропускну здатність. Оптимізована ланцюг доступності, з меншим числом валідаторів на слот (512 замість 30 000, що приблизно відповідає 30 000 крокам у км у контексті глобальної мережі), може усунути непотрібні етапи агрегації.
Ці оптимізації можуть забезпечити зменшення затримки у 3-6 разів. Досягнення порогів у 2-4 секунди цілком реалістичне у цих межах.
Майбутнє фрагментованих додатків
Ethereum не є глобальним сервером для відеоігор; це система розрахунків цифрової цивілізації. Додатки, що вимагають швидкості понад “імпульс мережі”, повинні включати компоненти off-chain. Ця реальність гарантує, що L2 залишиться безстроково, навіть якщо Ethereum досягне масової масштабованості. Інші причини включають гнучкість налаштованих віртуальних машин і ще більш радикальні вимоги до масштабів.
У довгостроковій перспективі штучний інтелект неминуче створить додатки “швидше за пульс серця”. Якщо штучний інтелект обробляє у 1000 разів швидше за людину, “суб’єктивна швидкість світла” для нього становить лише 300 км/с, що дозволяє майже миттєвий зв’язок у межах міст, але не між континентами. Це прискорить блокчейни до міських масштабів, навіть на рівні окремих будівель, і всі вони будуть обов’язково L2.
Навпаки, не є прагматичним нести космічні витрати на запуск валідаторів на Марсі. Ethereum залишається прив’язаним до Землі, одночасно обслуговуючи ультралокальні потреби у містах і масштаб планети без прецедентів.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Парадокс масштабованості Ethereum: чому пропускна здатність перевищує затримку?
У недавньому виступі на X Віталік Бутерін висловив провокаційну тезу, яка кидає виклик поширеним припущенням у галузі блокчейн: пріоритет розширення пропускної здатності є за своєю суттю безпечнішим для Ethereum, ніж агресивне зменшення затримки.
Перевірений шлях до масштабованості
За підтримки технологій таких як PeerDAS і ZKP, спільнота Ethereum намітила чіткий шлях до досягнення масових розширень. Теоретичні прогнози вказують на тисячократне збільшення у порівнянні з поточною здатністю. Технічні параметри значно покращуються як до, так і після впровадження цих масштабувальних рішень. З фізичної точки зору, немає фундаментальної перешкоди для поєднання “екстремальної масштабності” з “міцною децентралізацією”.
Однак реальність інша, коли мова йде про затримку. Обмеження, накладені швидкістю світла, становлять лише частину проблеми. Практичні обмеження є ще більш обмежувальними: вузли повинні працювати глобально у сільських районах, житлових будинках і комерційних закладах, а не лише у спеціалізованих дата-центрах. Оператори вузлів, особливо валідатори, потребують стійкості до цензури та гарантій анонімності.
Економічна дилема децентралізації
Постає незручне питання: якщо запуск валідатора стейкінгу поза Нью-Йорком зменшує доходи на 10%, скільки часу мине, перш ніж більшість валідаторів перейде до провідних фінансових центрів? Це явище поступово погіршить справжню децентралізацію мережі.
Ethereum має пройти “іспит залишення”, що означає, що мережа не може залежати від постійної соціальної координації для збереження свого розподіленого характеру. Економічні стимули повинні підтримувати більшу частину системи, хоча не можуть нести всю відповідальність.
Практичні покращення у межах можливого
Без структурних компромісів можливо помірно зменшити затримку. Досягнення у мережах P2P, особливо за допомогою кодів стирання, можуть зменшити час поширення повідомлень без необхідності, щоб окремі вузли збільшували свою пропускну здатність. Оптимізована ланцюг доступності, з меншим числом валідаторів на слот (512 замість 30 000, що приблизно відповідає 30 000 крокам у км у контексті глобальної мережі), може усунути непотрібні етапи агрегації.
Ці оптимізації можуть забезпечити зменшення затримки у 3-6 разів. Досягнення порогів у 2-4 секунди цілком реалістичне у цих межах.
Майбутнє фрагментованих додатків
Ethereum не є глобальним сервером для відеоігор; це система розрахунків цифрової цивілізації. Додатки, що вимагають швидкості понад “імпульс мережі”, повинні включати компоненти off-chain. Ця реальність гарантує, що L2 залишиться безстроково, навіть якщо Ethereum досягне масової масштабованості. Інші причини включають гнучкість налаштованих віртуальних машин і ще більш радикальні вимоги до масштабів.
У довгостроковій перспективі штучний інтелект неминуче створить додатки “швидше за пульс серця”. Якщо штучний інтелект обробляє у 1000 разів швидше за людину, “суб’єктивна швидкість світла” для нього становить лише 300 км/с, що дозволяє майже миттєвий зв’язок у межах міст, але не між континентами. Це прискорить блокчейни до міських масштабів, навіть на рівні окремих будівель, і всі вони будуть обов’язково L2.
Навпаки, не є прагматичним нести космічні витрати на запуск валідаторів на Марсі. Ethereum залишається прив’язаним до Землі, одночасно обслуговуючи ультралокальні потреби у містах і масштаб планети без прецедентів.