تضمنت خريطة طريق إثيريوم في البداية استراتيجيتين للتوسع: التجزئة وبروتوكولات Layer2. في النهاية، اندمجت هاتان الطريقتان معًا، لتشكيل خريطة طريق تتمحور حول Rollup، ولا تزال حتى اليوم استراتيجية التوسع لإثيريوم. تقترح خريطة الطريق التي تتمحور حول Rollup تقسيمًا بسيطًا للأدوار: تركز إثيريوم L1 على أن تصبح طبقة أساسية قوية ولامركزية، بينما تتحمل L2 مهمة المساعدة في توسيع النظام البيئي.
هذا العام ، حقق خريطة الطريق التي تركز على Rollup إنجازات مهمة: مع إطلاق كتل EIP-4844 ، زادت بشكل كبير سعة البيانات في إثريوم L1 ، ودخلت العديد من Rollup في الآلة الافتراضية لإثريوم المرحلة الأولى. كل L2 موجود كـ "شظية" لها قواعدها ومنطقها الداخلي الخاص. لقد أصبحت تنوع وتنوع طرق تنفيذ الشظايا الآن واقعًا. لكن هذا الطريق يواجه أيضًا بعض التحديات الفريدة. لذلك ، فإن مهمتنا الحالية هي إكمال خريطة الطريق التي تركز على Rollup وحل هذه المشكلات ، مع الحفاظ على القوة واللامركزية التي تتميز بها إثريوم L1.
الزيادة: الأهداف الرئيسية
مستقبل إثيريوم من خلال L2 يمكن أن يصل إلى أكثر من 100000 TPS؛
الحفاظ على اللامركزية والصلابة لـ L1;
على الأقل بعض L2 ورثت بشكل كامل الخصائص الأساسية لإثيريوم ( التي تتمثل في الثقة، والانفتاح، ومقاومة الرقابة );
إثيريوم应该感觉像一个统一的生态系统,而不是34个 مختلف的区块链.
محتوى هذا الفصل
معضلة مثلث القابلية للتوسع
مزيد من التقدم في أخذ عينات قابلية البيانات
ضغط البيانات
بلازما معممة
نظام إثبات L2 الناضج
تحسين التداخل بين L2
توسيع التنفيذ على L1
مثلث التوسع المتناقض
تعتقد نظرية مثلث القابلية للتوسع أن هناك تعارضًا بين ثلاث خصائص للكتلة: اللامركزية (، وبشكل أكثر تحديدًا: انخفاض تكلفة تشغيل العقد )، والقابلية للتوسع (، وعدد المعاملات التي يمكن معالجتها ) والأمان (، حيث يحتاج المهاجمون إلى تدمير جزء كبير من العقد في الشبكة لجعل معاملة واحدة تفشل ).
من الجدير بالذكر أن مفارقة المثلث ليست نظرية، ولا توجد أي إثباتات رياضية مرفقة بالمنشورات التي تقدم هذه المفارقة. تقدم فعلاً حجة رياضية استدلالية: إذا كان لديك عقدة صديقة لامركزية (، على سبيل المثال، كمبيوتر محمول مستهلك ) يمكنه التحقق من N معاملة في الثانية، ولديك سلسلة قادرة على معالجة k*N معاملة في الثانية، فإن (i) يمكن أن تُرى كل معاملة من قبل 1/k من العقد، مما يعني أن المهاجم يحتاج فقط إلى تدمير عدد قليل من العقد ليتمكن من إجراء معاملة خبيثة، أو (ii) ستصبح عقدتك قوية، بينما ستبقى سلسلتك غير لامركزية. الهدف من هذه المقالة لم يكن أبداً إثبات أن كسر مفارقة المثلث مستحيل؛ بل على العكس، تهدف إلى إظهار أن كسر المفارقة الثلاثية أمر صعب، ويتطلب إلى حد ما الخروج من إطار التفكير الضمني الذي يتضمنه هذا الجدل.
على مدى السنوات، ادعت بعض سلاسل الكتل عالية الأداء أنها حلت ثلاثية التناقضات دون تغيير الهيكل الأساسي، عادةً من خلال استخدام تقنيات هندسة البرمجيات لتحسين العقد. هذا دائماً ما يكون مضللاً، حيث أن تشغيل العقد على هذه السلاسل يكون أصعب بكثير من تشغيلها على إثيريوم. ستستكشف هذه المقالة لماذا هو كذلك، ولماذا لا يمكن توسيع إثيريوم فقط من خلال هندسة البرمجيات لعميل L1.
ومع ذلك، فإن دمج عينة توفر البيانات مع SNARKs يحل حقًا مفارقة المثلث: إنه يسمح للعملاء بالتحقق من أن كمية معينة من البيانات متاحة وأن عددًا معينًا من خطوات الحساب قد تم تنفيذها بشكل صحيح، مع تنزيل كمية قليلة فقط من البيانات وتنفيذ القليل من الحسابات. لا تحتاج SNARKs إلى الثقة. عينة توفر البيانات لديها نموذج ثقة دقيق من نوع few-of-N، لكنها تحتفظ بالخصائص الأساسية التي تتمتع بها السلاسل غير القابلة للتوسع، وهي أنه حتى هجمات بنسبة 51% لا يمكن أن تجبر الكتل السيئة على قبولها من قبل الشبكة.
طريقة أخرى لحل معضلة الثلاثة صعوبات هي بنية Plasma، التي تستخدم تقنيات ذكية لتحفيز المستخدمين على تحمل مسؤولية مراقبة توفر البيانات. في الفترة من 2017 إلى 2019، عندما كان لدينا فقط إثبات الاحتيال كوسيلة لتوسيع القدرة الحاسوبية، كانت Plasma مقيدة للغاية في التنفيذ الآمن، ولكن مع انتشار SNARKs( وإثبات المعرفة الصفرية الموجزة غير التفاعلية)، أصبحت بنية Plasma أكثر قابلية للتطبيق لسيناريوهات استخدام أوسع من أي وقت مضى.
التقدم الإضافي في أخذ عينات توفر البيانات
ماذا نحاول حل المشكلة؟
في 13 مارس 2024، عندما يتم ترقية Dencun، سيكون لدى سلسلة كتل إثيريوم 3 كتل بحجم حوالي 125 كيلوبايت لكل شريحة كل 12 ثانية، أو عرض نطاق البيانات المتاحة لكل شريحة حوالي 375 كيلوبايت. افترض أن بيانات المعاملات تُنشر مباشرة على السلسلة، فإن تحويلات ERC20 تبلغ حوالي 180 بايت، لذا فإن الحد الأقصى لمدى TPS ل Rollup على إثيريوم هو: 375000 / 12 / 180 = 173.6 TPS
إذا أضفنا الحد الأقصى النظري لـ calldata إثيريوم (: كل slot 30 مليون Gas / كل بايت 16 gas = كل slot 1,875,000 بايت )، فإن ذلك يصبح 607 TPS. باستخدام PeerDAS، قد يرتفع عدد الـ blobs إلى 8-16، مما سيقدم لـ calldata 463-926 TPS.
هذا تحسين كبير لـ إثيريوم L1، لكنه ليس كافيًا. نحن نريد المزيد من القابلية للتوسع. هدفنا المتوسط هو 16 ميجابايت لكل فتحة، وإذا تم دمجه مع تحسين ضغط بيانات Rollup، سيؤدي ذلك إلى ~58000 TPS.
PeerDAS هو تنفيذ بسيط نسبيًا لـ "1D sampling". في إثيريوم، كل blob هو متعدد حدود من الدرجة 4096 في مجال الأعداد الأولية (. نحن نبث حصص متعددة الحدود، حيث تحتوي كل حصة على 16 قيمة تقييم من 16 نقطة متجاورة من إجمالي 8192 نقطة. من بين هذه الـ 8192 قيمة تقييم، يمكن استعادة أي 4096 من ) بناءً على المعلمات المقدمة حاليًا: يمكن استعادة أي 64 من 128 عينة محتملة من (.
آلية عمل PeerDAS هي السماح لكل عميل بالاستماع إلى عدد قليل من الشبكات الفرعية، حيث تبث الشبكة الفرعية i أي عينة من blob، ويطلب من الأقران في الشبكة العالمية p2p الذين يستمعون إلى الشبكات الفرعية المختلفة ) من سيستمع إلى الشبكات الفرعية الأخرى ( للحصول على blob التي يحتاجها. النسخة الأكثر تحفظًا SubnetDAS تستخدم فقط آلية الشبكة الفرعية، دون استفسارات إضافية عن طبقة الأقران. الاقتراح الحالي هو السماح للعقد المشاركة في إثبات الحصة باستخدام SubnetDAS، بينما العقد الأخرى ) أي العملاء ( يستخدمون PeerDAS.
من الناحية النظرية، يمكننا توسيع نطاق "1D sampling" إلى حد كبير: إذا قمنا بزيادة العدد الأقصى من blob إلى 256) مع هدف 128(، فسنتمكن من تحقيق هدف 16MB، بينما في عينة توفر البيانات، كل عقدة لديها 16 عينة * 128 blob * 512 بايت لكل blob لكل عينة = 1 MB من عرض النطاق الترددي لكل فتحة. هذا بالكاد ضمن نطاق تحملنا: هذا ممكن، ولكن هذا يعني أن العملاء ذوي النطاق الترددي المحدود لا يمكنهم أخذ العينات. يمكننا تحسين ذلك إلى حد ما عن طريق تقليل عدد blobs وزيادة حجم blobs، لكن هذا سيجعل تكلفة إعادة البناء أعلى.
لذلك، نريد في النهاية أن نذهب أبعد من ذلك، ونقوم بأخذ عينات ثنائية الأبعاد ) 2D sampling (، هذه الطريقة لا تأخذ عينات عشوائية داخل الـ blob فحسب، بل تأخذ عينات عشوائية بين الـ blobs أيضاً. باستخدام الخصائص الخطية لالتزام KZG، نقوم بتوسيع مجموعة الـ blobs في كتلة بواسطة مجموعة جديدة من الـ blobs الافتراضية، حيث تشفر هذه الـ blobs الافتراضية بنفس المعلومات بشكل زائد.
لذلك، في النهاية نرغب في المضي قدمًا، وإجراء أخذ عينات ثنائية الأبعاد، ليس فقط داخل الكتلة، ولكن أيضًا بين الكتل عن طريق أخذ عينات عشوائية. تُستخدم خاصية الالتزام الخطية لـ KZG لتوسيع مجموعة الكتل داخل كتلة، والتي تحتوي على قائمة جديدة من الكتل الافتراضية التي تم تشفير المعلومات نفسها بشكل زائد.
من المهم جدًا أن توسيع الالتزام لا يحتاج إلى blob، لذلك فإن هذه الخطة في جوهرها صديقة لبناء الكتل الموزعة. تحتاج العقد التي تبني الكتل فعليًا إلى امتلاك blob KZG الالتزام، ويمكنها الاعتماد على عينة توفر البيانات )DAS( للتحقق من توفر كتل البيانات. عينة توفر البيانات أحادية البعد )1D DAS( هي أيضًا صديقة لبناء الكتل الموزعة.
![فيتاليك الجديدة: مستقبل إثيريوم المحتمل، The Surge])https://img-cdn.gateio.im/webp-social/moments-71424e26868ad99f2adda7a27447820a.webp(
) ماذا يجب أن نفعل بعد؟ وما هي الموازنات الموجودة؟
ستكون الخطوة التالية هي إكمال تنفيذ وإطلاق PeerDAS. بعد ذلك، سيتم زيادة عدد الـ blobs على PeerDAS باستمرار، مع مراقبة الشبكة بعناية وتحسين البرنامج لضمان الأمان، وهذه عملية تدريجية. في الوقت نفسه، نأمل أن يكون هناك المزيد من الأعمال الأكاديمية لتنظيم PeerDAS والإصدارات الأخرى من DAS وتفاعلها مع مسائل أمان قواعد اختيار الانقسام.
في المراحل الأبعد في المستقبل، نحتاج إلى القيام بمزيد من العمل لتحديد النسخة المثالية من DAS ثنائي الأبعاد، وإثبات خصائص الأمان الخاصة بها. نأمل أيضًا في النهاية أن نتمكن من الانتقال من KZG إلى بديل آمن كمي ولا يتطلب إعداد موثوق. حاليًا، لا نعرف ما هي الحلول المرشحة التي تكون صديقة لبناء الكتل الموزعة. حتى باستخدام تقنية "التحطيم" المكلفة، حتى عند استخدام STARK التكراري لإنشاء إثباتات صلاحية لإعادة بناء الصفوف والأعمدة، فإن ذلك غير كافٍ لتلبية الطلب، لأنه على الرغم من أنه من الناحية التقنية، فإن حجم STARK هو O(log)n### * log(log(n)( قيمة هاش( باستخدام STIR)، إلا أن STARK في الواقع يكاد يكون بحجم blob بأكمله.
أعتقد أن المسار الواقعي طويل الأمد هو:
تنفيذ DAS ثنائي الأبعاد المثالي؛
الالتزام باستخدام 1D DAS، التضحية بكفاءة عرض النطاق الترددي للعينة، من أجل البساطة والموثوقية قبول حد بيانات أقل
التخلي عن DA، وقبول Plasma تمامًا كهيكل Layer2 الرئيسي الذي نركز عليه.
يرجى ملاحظة أنه حتى إذا قررنا التوسع في التنفيذ مباشرة على مستوى L1، فإن هذا الخيار موجود. وذلك لأن مستوى L1 إذا كان عليه معالجة كميات كبيرة من TPS، ستصبح كتل L1 كبيرة جداً، وسيأمل العملاء أن تكون هناك طريقة فعالة للتحقق من صحتها، لذلك سيتعين علينا استخدام نفس التقنيات الموجودة في Rollup) مثل ZK-EVM وDAS( على مستوى L1.
) كيف تتفاعل مع الأجزاء الأخرى من خارطة الطريق؟
إذا تم تحقيق ضغط البيانات، فسيتم تقليل الطلب على 2D DAS، أو على الأقل تأخيره، وإذا تم استخدام Plasma على نطاق واسع، فسيقل الطلب أكثر. كما أن DAS يمثل تحديات للبروتوكولات والآليات لبناء الكتل الموزعة: على الرغم من أن DAS نظريًا صديق لإعادة البناء الموزع، إلا أن ذلك في الممارسة العملية يتطلب دمجه مع اقتراح قائمة تضمين الحزم وآلية اختيار الفروع المحيطة بها.
ضغط البيانات
ماذا نحن نحل من مشكلة؟
تحتل كل معاملة في Rollup مساحة كبيرة من بيانات السلسلة: يتطلب نقل ERC20 حوالي 180 بايت. حتى مع توفر عينة بيانات مثالية، فإن هذا يحد من قابلية التوسع في بروتوكول Layer. كل فتحة 16 ميجابايت، نحصل على:
16000000 / 12 / 180 = 7407 TPS
ماذا سيحدث إذا تمكنا من حل مشكلة البسط وليس فقط مشكلة المقام، مما يجعل كل معاملة في Rollup تشغل عددًا أقل من البايتات على السلسلة؟
ما هو؟ كيف يعمل؟
في رأيي، أفضل تفسير هو هذه الصورة منذ عامين:
ضغط البايتات الصفرية، باستخدام بايتين لاستبدال كل سلسلة طويلة من البايتات الصفرية، للإشارة إلى عدد البايتات الصفرية. علاوة على ذلك، استخدمنا معاملات
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
Ethereum: الطفرة: الطريق وتحديات توسيع نطاق 100,000 TPS
إثيريوم المستقبل المحتمل: The Surge
تضمنت خريطة طريق إثيريوم في البداية استراتيجيتين للتوسع: التجزئة وبروتوكولات Layer2. في النهاية، اندمجت هاتان الطريقتان معًا، لتشكيل خريطة طريق تتمحور حول Rollup، ولا تزال حتى اليوم استراتيجية التوسع لإثيريوم. تقترح خريطة الطريق التي تتمحور حول Rollup تقسيمًا بسيطًا للأدوار: تركز إثيريوم L1 على أن تصبح طبقة أساسية قوية ولامركزية، بينما تتحمل L2 مهمة المساعدة في توسيع النظام البيئي.
هذا العام ، حقق خريطة الطريق التي تركز على Rollup إنجازات مهمة: مع إطلاق كتل EIP-4844 ، زادت بشكل كبير سعة البيانات في إثريوم L1 ، ودخلت العديد من Rollup في الآلة الافتراضية لإثريوم المرحلة الأولى. كل L2 موجود كـ "شظية" لها قواعدها ومنطقها الداخلي الخاص. لقد أصبحت تنوع وتنوع طرق تنفيذ الشظايا الآن واقعًا. لكن هذا الطريق يواجه أيضًا بعض التحديات الفريدة. لذلك ، فإن مهمتنا الحالية هي إكمال خريطة الطريق التي تركز على Rollup وحل هذه المشكلات ، مع الحفاظ على القوة واللامركزية التي تتميز بها إثريوم L1.
الزيادة: الأهداف الرئيسية
مستقبل إثيريوم من خلال L2 يمكن أن يصل إلى أكثر من 100000 TPS؛
الحفاظ على اللامركزية والصلابة لـ L1;
على الأقل بعض L2 ورثت بشكل كامل الخصائص الأساسية لإثيريوم ( التي تتمثل في الثقة، والانفتاح، ومقاومة الرقابة );
إثيريوم应该感觉像一个统一的生态系统,而不是34个 مختلف的区块链.
محتوى هذا الفصل
مثلث التوسع المتناقض
تعتقد نظرية مثلث القابلية للتوسع أن هناك تعارضًا بين ثلاث خصائص للكتلة: اللامركزية (، وبشكل أكثر تحديدًا: انخفاض تكلفة تشغيل العقد )، والقابلية للتوسع (، وعدد المعاملات التي يمكن معالجتها ) والأمان (، حيث يحتاج المهاجمون إلى تدمير جزء كبير من العقد في الشبكة لجعل معاملة واحدة تفشل ).
من الجدير بالذكر أن مفارقة المثلث ليست نظرية، ولا توجد أي إثباتات رياضية مرفقة بالمنشورات التي تقدم هذه المفارقة. تقدم فعلاً حجة رياضية استدلالية: إذا كان لديك عقدة صديقة لامركزية (، على سبيل المثال، كمبيوتر محمول مستهلك ) يمكنه التحقق من N معاملة في الثانية، ولديك سلسلة قادرة على معالجة k*N معاملة في الثانية، فإن (i) يمكن أن تُرى كل معاملة من قبل 1/k من العقد، مما يعني أن المهاجم يحتاج فقط إلى تدمير عدد قليل من العقد ليتمكن من إجراء معاملة خبيثة، أو (ii) ستصبح عقدتك قوية، بينما ستبقى سلسلتك غير لامركزية. الهدف من هذه المقالة لم يكن أبداً إثبات أن كسر مفارقة المثلث مستحيل؛ بل على العكس، تهدف إلى إظهار أن كسر المفارقة الثلاثية أمر صعب، ويتطلب إلى حد ما الخروج من إطار التفكير الضمني الذي يتضمنه هذا الجدل.
على مدى السنوات، ادعت بعض سلاسل الكتل عالية الأداء أنها حلت ثلاثية التناقضات دون تغيير الهيكل الأساسي، عادةً من خلال استخدام تقنيات هندسة البرمجيات لتحسين العقد. هذا دائماً ما يكون مضللاً، حيث أن تشغيل العقد على هذه السلاسل يكون أصعب بكثير من تشغيلها على إثيريوم. ستستكشف هذه المقالة لماذا هو كذلك، ولماذا لا يمكن توسيع إثيريوم فقط من خلال هندسة البرمجيات لعميل L1.
ومع ذلك، فإن دمج عينة توفر البيانات مع SNARKs يحل حقًا مفارقة المثلث: إنه يسمح للعملاء بالتحقق من أن كمية معينة من البيانات متاحة وأن عددًا معينًا من خطوات الحساب قد تم تنفيذها بشكل صحيح، مع تنزيل كمية قليلة فقط من البيانات وتنفيذ القليل من الحسابات. لا تحتاج SNARKs إلى الثقة. عينة توفر البيانات لديها نموذج ثقة دقيق من نوع few-of-N، لكنها تحتفظ بالخصائص الأساسية التي تتمتع بها السلاسل غير القابلة للتوسع، وهي أنه حتى هجمات بنسبة 51% لا يمكن أن تجبر الكتل السيئة على قبولها من قبل الشبكة.
طريقة أخرى لحل معضلة الثلاثة صعوبات هي بنية Plasma، التي تستخدم تقنيات ذكية لتحفيز المستخدمين على تحمل مسؤولية مراقبة توفر البيانات. في الفترة من 2017 إلى 2019، عندما كان لدينا فقط إثبات الاحتيال كوسيلة لتوسيع القدرة الحاسوبية، كانت Plasma مقيدة للغاية في التنفيذ الآمن، ولكن مع انتشار SNARKs( وإثبات المعرفة الصفرية الموجزة غير التفاعلية)، أصبحت بنية Plasma أكثر قابلية للتطبيق لسيناريوهات استخدام أوسع من أي وقت مضى.
التقدم الإضافي في أخذ عينات توفر البيانات
ماذا نحاول حل المشكلة؟
في 13 مارس 2024، عندما يتم ترقية Dencun، سيكون لدى سلسلة كتل إثيريوم 3 كتل بحجم حوالي 125 كيلوبايت لكل شريحة كل 12 ثانية، أو عرض نطاق البيانات المتاحة لكل شريحة حوالي 375 كيلوبايت. افترض أن بيانات المعاملات تُنشر مباشرة على السلسلة، فإن تحويلات ERC20 تبلغ حوالي 180 بايت، لذا فإن الحد الأقصى لمدى TPS ل Rollup على إثيريوم هو: 375000 / 12 / 180 = 173.6 TPS
إذا أضفنا الحد الأقصى النظري لـ calldata إثيريوم (: كل slot 30 مليون Gas / كل بايت 16 gas = كل slot 1,875,000 بايت )، فإن ذلك يصبح 607 TPS. باستخدام PeerDAS، قد يرتفع عدد الـ blobs إلى 8-16، مما سيقدم لـ calldata 463-926 TPS.
هذا تحسين كبير لـ إثيريوم L1، لكنه ليس كافيًا. نحن نريد المزيد من القابلية للتوسع. هدفنا المتوسط هو 16 ميجابايت لكل فتحة، وإذا تم دمجه مع تحسين ضغط بيانات Rollup، سيؤدي ذلك إلى ~58000 TPS.
! مقال فيتاليك الجديد: مستقبل Ethereum المحتمل ، الطفرة
ما هو؟ كيف يعمل؟
PeerDAS هو تنفيذ بسيط نسبيًا لـ "1D sampling". في إثيريوم، كل blob هو متعدد حدود من الدرجة 4096 في مجال الأعداد الأولية (. نحن نبث حصص متعددة الحدود، حيث تحتوي كل حصة على 16 قيمة تقييم من 16 نقطة متجاورة من إجمالي 8192 نقطة. من بين هذه الـ 8192 قيمة تقييم، يمكن استعادة أي 4096 من ) بناءً على المعلمات المقدمة حاليًا: يمكن استعادة أي 64 من 128 عينة محتملة من (.
آلية عمل PeerDAS هي السماح لكل عميل بالاستماع إلى عدد قليل من الشبكات الفرعية، حيث تبث الشبكة الفرعية i أي عينة من blob، ويطلب من الأقران في الشبكة العالمية p2p الذين يستمعون إلى الشبكات الفرعية المختلفة ) من سيستمع إلى الشبكات الفرعية الأخرى ( للحصول على blob التي يحتاجها. النسخة الأكثر تحفظًا SubnetDAS تستخدم فقط آلية الشبكة الفرعية، دون استفسارات إضافية عن طبقة الأقران. الاقتراح الحالي هو السماح للعقد المشاركة في إثبات الحصة باستخدام SubnetDAS، بينما العقد الأخرى ) أي العملاء ( يستخدمون PeerDAS.
من الناحية النظرية، يمكننا توسيع نطاق "1D sampling" إلى حد كبير: إذا قمنا بزيادة العدد الأقصى من blob إلى 256) مع هدف 128(، فسنتمكن من تحقيق هدف 16MB، بينما في عينة توفر البيانات، كل عقدة لديها 16 عينة * 128 blob * 512 بايت لكل blob لكل عينة = 1 MB من عرض النطاق الترددي لكل فتحة. هذا بالكاد ضمن نطاق تحملنا: هذا ممكن، ولكن هذا يعني أن العملاء ذوي النطاق الترددي المحدود لا يمكنهم أخذ العينات. يمكننا تحسين ذلك إلى حد ما عن طريق تقليل عدد blobs وزيادة حجم blobs، لكن هذا سيجعل تكلفة إعادة البناء أعلى.
لذلك، نريد في النهاية أن نذهب أبعد من ذلك، ونقوم بأخذ عينات ثنائية الأبعاد ) 2D sampling (، هذه الطريقة لا تأخذ عينات عشوائية داخل الـ blob فحسب، بل تأخذ عينات عشوائية بين الـ blobs أيضاً. باستخدام الخصائص الخطية لالتزام KZG، نقوم بتوسيع مجموعة الـ blobs في كتلة بواسطة مجموعة جديدة من الـ blobs الافتراضية، حيث تشفر هذه الـ blobs الافتراضية بنفس المعلومات بشكل زائد.
لذلك، في النهاية نرغب في المضي قدمًا، وإجراء أخذ عينات ثنائية الأبعاد، ليس فقط داخل الكتلة، ولكن أيضًا بين الكتل عن طريق أخذ عينات عشوائية. تُستخدم خاصية الالتزام الخطية لـ KZG لتوسيع مجموعة الكتل داخل كتلة، والتي تحتوي على قائمة جديدة من الكتل الافتراضية التي تم تشفير المعلومات نفسها بشكل زائد.
من المهم جدًا أن توسيع الالتزام لا يحتاج إلى blob، لذلك فإن هذه الخطة في جوهرها صديقة لبناء الكتل الموزعة. تحتاج العقد التي تبني الكتل فعليًا إلى امتلاك blob KZG الالتزام، ويمكنها الاعتماد على عينة توفر البيانات )DAS( للتحقق من توفر كتل البيانات. عينة توفر البيانات أحادية البعد )1D DAS( هي أيضًا صديقة لبناء الكتل الموزعة.
![فيتاليك الجديدة: مستقبل إثيريوم المحتمل، The Surge])https://img-cdn.gateio.im/webp-social/moments-71424e26868ad99f2adda7a27447820a.webp(
) ماذا يجب أن نفعل بعد؟ وما هي الموازنات الموجودة؟
ستكون الخطوة التالية هي إكمال تنفيذ وإطلاق PeerDAS. بعد ذلك، سيتم زيادة عدد الـ blobs على PeerDAS باستمرار، مع مراقبة الشبكة بعناية وتحسين البرنامج لضمان الأمان، وهذه عملية تدريجية. في الوقت نفسه، نأمل أن يكون هناك المزيد من الأعمال الأكاديمية لتنظيم PeerDAS والإصدارات الأخرى من DAS وتفاعلها مع مسائل أمان قواعد اختيار الانقسام.
في المراحل الأبعد في المستقبل، نحتاج إلى القيام بمزيد من العمل لتحديد النسخة المثالية من DAS ثنائي الأبعاد، وإثبات خصائص الأمان الخاصة بها. نأمل أيضًا في النهاية أن نتمكن من الانتقال من KZG إلى بديل آمن كمي ولا يتطلب إعداد موثوق. حاليًا، لا نعرف ما هي الحلول المرشحة التي تكون صديقة لبناء الكتل الموزعة. حتى باستخدام تقنية "التحطيم" المكلفة، حتى عند استخدام STARK التكراري لإنشاء إثباتات صلاحية لإعادة بناء الصفوف والأعمدة، فإن ذلك غير كافٍ لتلبية الطلب، لأنه على الرغم من أنه من الناحية التقنية، فإن حجم STARK هو O(log)n### * log(log(n)( قيمة هاش( باستخدام STIR)، إلا أن STARK في الواقع يكاد يكون بحجم blob بأكمله.
أعتقد أن المسار الواقعي طويل الأمد هو:
يرجى ملاحظة أنه حتى إذا قررنا التوسع في التنفيذ مباشرة على مستوى L1، فإن هذا الخيار موجود. وذلك لأن مستوى L1 إذا كان عليه معالجة كميات كبيرة من TPS، ستصبح كتل L1 كبيرة جداً، وسيأمل العملاء أن تكون هناك طريقة فعالة للتحقق من صحتها، لذلك سيتعين علينا استخدام نفس التقنيات الموجودة في Rollup) مثل ZK-EVM وDAS( على مستوى L1.
) كيف تتفاعل مع الأجزاء الأخرى من خارطة الطريق؟
إذا تم تحقيق ضغط البيانات، فسيتم تقليل الطلب على 2D DAS، أو على الأقل تأخيره، وإذا تم استخدام Plasma على نطاق واسع، فسيقل الطلب أكثر. كما أن DAS يمثل تحديات للبروتوكولات والآليات لبناء الكتل الموزعة: على الرغم من أن DAS نظريًا صديق لإعادة البناء الموزع، إلا أن ذلك في الممارسة العملية يتطلب دمجه مع اقتراح قائمة تضمين الحزم وآلية اختيار الفروع المحيطة بها.
ضغط البيانات
ماذا نحن نحل من مشكلة؟
تحتل كل معاملة في Rollup مساحة كبيرة من بيانات السلسلة: يتطلب نقل ERC20 حوالي 180 بايت. حتى مع توفر عينة بيانات مثالية، فإن هذا يحد من قابلية التوسع في بروتوكول Layer. كل فتحة 16 ميجابايت، نحصل على:
16000000 / 12 / 180 = 7407 TPS
ماذا سيحدث إذا تمكنا من حل مشكلة البسط وليس فقط مشكلة المقام، مما يجعل كل معاملة في Rollup تشغل عددًا أقل من البايتات على السلسلة؟
ما هو؟ كيف يعمل؟
في رأيي، أفضل تفسير هو هذه الصورة منذ عامين:
ضغط البايتات الصفرية، باستخدام بايتين لاستبدال كل سلسلة طويلة من البايتات الصفرية، للإشارة إلى عدد البايتات الصفرية. علاوة على ذلك، استخدمنا معاملات