في المراحل الأولى من النظام، يمكن تشغيل كل شيء. البيانات قليلة، ويمكن بناء أي هيكل بسهولة دون أن تظهر مشكلة. الاختبار الحقيقي لا يكون في اليوم الأول، بل في اللحظة التي تبدأ فيها البيانات في التراكم بشكل جنوني.
لنأخذ تطبيقًا متوسط التعقيد كمثال: ينتج يوميًا 50-100 كيلوبايت من بيانات الحالة والسلوك. سنة واحدة؟ 18-36 جيجابايت. ومع البيانات المشتقة ونسخ النسخ الاحتياطي، يتضاعف الحجم الفعلي. يبدو الأمر مجرد أرقام، لكن المشكلة ليست في الكتابة، بل في أن هذه البيانات لا تتوقف أبدًا. يتم قراءتها مرارًا وتكرارًا، والتحقق منها، ودمجها مع بعضها البعض. إذا اختلطت علاقات الإشارة، فإن تعقيد النظام بأكمله سيزداد بشكل أسي.
هذا هو نقطة انطلاق تصميم Walrus. هو لا يتوقع أن تتوقف البيانات عن النمو، ولا يتوقع أن يتم كتابة الكائنات مرة واحدة فقط. فكرة Walrus هي: أن يحصل كائن البيانات عند إنشائه على معرف ثابت، هذا المعرف لا يتغير أبدًا. يتم تسجيل جميع التغييرات كمسار تطور لحالة نفس الكائن. قد لا تظهر الفروقات في الحجم الصغير، لكن مع مرور الوقت، ستتضخم مزايا هذا التصميم تدريجيًا.
انظر إلى البيانات التي كشفت عنها الاختبارات: تدعم تخزين الكائنات بحجم ميجابايت، وتضمن التوفر عبر تكرار متعدد العقد، مع استقرار التوفر الكلي في شبكة الاختبار فوق 99%. زمن التأخير في القراءة يبقى في مستوى الثواني، ويمكن للتطبيقات الحقيقية استدعاؤها مباشرة، وليس فقط لأرشفة البيانات الباردة.
الأهم من ذلك هو التغييرات على مستوى التطبيق. عندما تتوقف علاقات الكائنات عن التغير المتكرر، يمكن للتطبيقات أن تقوم بتحسينات عميقة حول بنية البيانات المستقرة، وهو أمر يصعب تحقيقه في نماذج التخزين التقليدية.
شاهد النسخة الأصلية
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 7
أعجبني
7
8
إعادة النشر
مشاركة
تعليق
0/400
notSatoshi1971
· 01-10 11:44
لحظة انفجار البيانات هي بداية الجحيم الحقيقي، الفرق الصغيرة لا يمكنها التعامل مع هذا الشيء بأناقة
شاهد النسخة الأصليةرد0
WhaleMistaker
· 01-08 18:31
لحظة انفجار البيانات هي الجحيم الحقيقي، في البداية لا يمكن رؤيتها على الإطلاق. فكرة Walrus ليست سيئة، تحديد الهوية بشكل ثابت يمكن حقًا أن يحل مشكلة الفوضى في الإشارات. 99% من حيث الاعتمادية تعتبر معقولة أيضًا.
شاهد النسخة الأصليةرد0
BakedCatFanboy
· 01-08 07:30
لحظة تراكم البيانات هي الجحيم الحقيقي، لم أستطع أن أميز ذلك عندما كنت صغيرًا. حقًا، فكرة الهوية غير القابلة للتغيير في Walrus رائعة، فهي لا تتطلب التعامل مرارًا وتكرارًا مع الأشياء الفوضوية المليئة بالمراجع.
شاهد النسخة الأصليةرد0
OldLeekMaster
· 01-07 20:53
تكديس البيانات إلى مستوى معين سيكشف الحقيقة، والمشاريع الصغيرة حقًا لا تظهر الفرق. نهج Walrus هذا ليس سيئًا، والحل الذي يركز على استقرار الهوية وتطور الحالة فعلاً حل المشكلة. على الرغم من أن 99% من التوفر وتأخير الثواني يبدو غير مبالغ فيه، إلا أن هناك عددًا قليلاً من المشاريع التي يمكن تنفيذها فعليًا.
شاهد النسخة الأصليةرد0
NftBankruptcyClub
· 01-07 20:50
عندما ترتفع كمية البيانات بشكل مفاجئ، تظهر الهيكلية الحقيقية، وهذا شيء أشعر به جدًا. لقد رأيت العديد من المشاريع التي كانت تتفاخر عند إطلاقها، وعندما تصل البيانات إلى حجم معين، تنهار مباشرة... حقًا، فإن فكرة Walrus حول تحديد الهوية المستقرة ليست مجرد تقليد، بل هي حل تخزين فريد من نوعه.
شاهد النسخة الأصليةرد0
CoconutWaterBoy
· 01-07 20:49
عندما بدأ تراكم البيانات، بدأ النظام يصرخ، كانت هذه التجربة واقعية جدًا… فكرة Walrus ليست سيئة، تحديد الهوية بشكل مستقر هو بالفعل نقطة انطلاق مهمة
شاهد النسخة الأصليةرد0
MemeCoinSavant
· 01-07 20:46
يا هذا هو التحرك الحقيقي... هوية الكائن المستقرة عبر تطور الحالة تلامس مختلفًا بمجرد أن تبدأ بياناتك في اختناق النظام بصراحة
شاهد النسخة الأصليةرد0
GateUser-7b078580
· 01-07 20:41
تراكم البيانات هو القاتل الحقيقي، 18-36 جيجابايت في السنة وما زال يتضاعف، كم من الوقت يمكن أن يتحمل هذا الحجم قبل أن نقول؟
في المراحل الأولى من النظام، يمكن تشغيل كل شيء. البيانات قليلة، ويمكن بناء أي هيكل بسهولة دون أن تظهر مشكلة. الاختبار الحقيقي لا يكون في اليوم الأول، بل في اللحظة التي تبدأ فيها البيانات في التراكم بشكل جنوني.
لنأخذ تطبيقًا متوسط التعقيد كمثال: ينتج يوميًا 50-100 كيلوبايت من بيانات الحالة والسلوك. سنة واحدة؟ 18-36 جيجابايت. ومع البيانات المشتقة ونسخ النسخ الاحتياطي، يتضاعف الحجم الفعلي. يبدو الأمر مجرد أرقام، لكن المشكلة ليست في الكتابة، بل في أن هذه البيانات لا تتوقف أبدًا. يتم قراءتها مرارًا وتكرارًا، والتحقق منها، ودمجها مع بعضها البعض. إذا اختلطت علاقات الإشارة، فإن تعقيد النظام بأكمله سيزداد بشكل أسي.
هذا هو نقطة انطلاق تصميم Walrus. هو لا يتوقع أن تتوقف البيانات عن النمو، ولا يتوقع أن يتم كتابة الكائنات مرة واحدة فقط. فكرة Walrus هي: أن يحصل كائن البيانات عند إنشائه على معرف ثابت، هذا المعرف لا يتغير أبدًا. يتم تسجيل جميع التغييرات كمسار تطور لحالة نفس الكائن. قد لا تظهر الفروقات في الحجم الصغير، لكن مع مرور الوقت، ستتضخم مزايا هذا التصميم تدريجيًا.
انظر إلى البيانات التي كشفت عنها الاختبارات: تدعم تخزين الكائنات بحجم ميجابايت، وتضمن التوفر عبر تكرار متعدد العقد، مع استقرار التوفر الكلي في شبكة الاختبار فوق 99%. زمن التأخير في القراءة يبقى في مستوى الثواني، ويمكن للتطبيقات الحقيقية استدعاؤها مباشرة، وليس فقط لأرشفة البيانات الباردة.
الأهم من ذلك هو التغييرات على مستوى التطبيق. عندما تتوقف علاقات الكائنات عن التغير المتكرر، يمكن للتطبيقات أن تقوم بتحسينات عميقة حول بنية البيانات المستقرة، وهو أمر يصعب تحقيقه في نماذج التخزين التقليدية.