Peta jalan Ethereum awalnya mencakup dua strategi skalabilitas: sharding dan protokol Layer 2. Kedua jalur ini akhirnya bergabung, membentuk peta jalan yang berfokus pada Rollup, yang hingga kini masih merupakan strategi perluasan Ethereum. Peta jalan yang berfokus pada Rollup mengajukan pembagian tugas yang sederhana: Ethereum L1 berfokus untuk menjadi lapisan dasar yang kuat dan terdesentralisasi, sementara L2 mengambil tugas untuk membantu ekosistem berkembang.
Tahun ini, peta jalan yang berfokus pada Rollup telah mencapai hasil penting: dengan peluncuran EIP-4844 blobs, bandwidth data Ethereum L1 meningkat secara signifikan, dan beberapa Rollup mesin virtual Ethereum telah memasuki fase pertama. Setiap L2 ada sebagai "shard" yang memiliki aturan dan logika internalnya sendiri, keberagaman dan variasi cara implementasi shard kini telah menjadi kenyataan. Namun, jalan ini juga menghadapi beberapa tantangan unik. Oleh karena itu, tugas kita sekarang adalah menyelesaikan peta jalan yang berfokus pada Rollup, dan mengatasi masalah ini, sambil mempertahankan ketahanan dan desentralisasi yang khas dari Ethereum L1.
The Surge: Tujuan Kunci
Di masa depan, Ethereum melalui L2 dapat mencapai lebih dari 100.000 TPS;
Mempertahankan desentralisasi dan ketahanan L1;
Setidaknya beberapa L2 sepenuhnya mewarisi atribut inti Ethereum ( yang dapat dipercaya, terbuka, dan tahan sensor );
Ethereum harus terasa seperti ekosistem yang terintegrasi, bukan 34 blockchain yang berbeda.
Isi Bab Ini
Paradoks Segitiga Skalabilitas
Kemajuan lebih lanjut dari sampling ketersediaan data
Kompresi Data
Plasma Generalisasi
Sistem bukti L2 yang matang
Peningkatan Interoperabilitas L2
Memperluas eksekusi di L1
Paradoks Segitiga Skalabilitas
Paradoks segitiga skalabilitas berpendapat bahwa ada kontradiksi antara tiga fitur blockchain: desentralisasi ( lebih spesifiknya: biaya menjalankan node yang rendah ), skalabilitas ( jumlah transaksi yang ditangani banyak ) dan keamanan ( penyerang perlu menghancurkan sebagian besar node di jaringan untuk membuat satu transaksi gagal ).
Perlu dicatat bahwa paradoks segitiga bukanlah sebuah teorema, dan posting yang memperkenalkan paradoks segitiga juga tidak disertai dengan bukti matematis. Ini memang memberikan argumen matematis heuristik: jika sebuah node ramah terdesentralisasi ( misalnya, laptop konsumen ) dapat memverifikasi N transaksi per detik, dan Anda memiliki sebuah rantai yang dapat memproses k*N transaksi per detik, maka (i) setiap transaksi hanya dapat dilihat oleh 1/k node, yang berarti penyerang hanya perlu merusak sejumlah kecil node untuk melewatkan transaksi jahat, atau (ii) node Anda akan menjadi kuat, sementara rantai Anda tidak akan terdesentralisasi. Tujuan artikel ini sama sekali bukan untuk membuktikan bahwa mematahkan paradoks segitiga tidak mungkin; sebaliknya, ini bertujuan untuk menunjukkan bahwa mematahkan paradoks tiga sangat sulit, dan itu membutuhkan untuk keluar dari kerangka pemikiran yang tersirat dalam argumen tersebut.
Selama bertahun-tahun, beberapa rantai berkinerja tinggi sering mengklaim bahwa mereka telah menyelesaikan paradoks trilema tanpa mengubah arsitektur secara fundamental, biasanya dengan menerapkan teknik rekayasa perangkat lunak untuk mengoptimalkan node. Ini selalu menyesatkan, menjalankan node di rantai ini jauh lebih sulit dibandingkan menjalankan node di Ethereum. Artikel ini akan membahas mengapa hal ini terjadi, dan mengapa hanya bergantung pada rekayasa perangkat lunak klien L1 saja tidak cukup untuk menskalakan Ethereum?
Namun, kombinasi sampling ketersediaan data dan SNARKs memang menyelesaikan paradoks segitiga: ini memungkinkan klien untuk memverifikasi bahwa sejumlah data tersedia dan sejumlah langkah perhitungan telah dilakukan dengan benar, hanya dengan mengunduh sejumlah kecil data dan melakukan sedikit perhitungan. SNARKs bersifat tanpa kepercayaan. Sampling ketersediaan data memiliki model kepercayaan few-of-N yang halus, tetapi mempertahankan karakteristik dasar dari rantai yang tidak dapat diskalakan, yaitu bahkan serangan 51% tidak dapat memaksa blok jahat diterima oleh jaringan.
Metode lain untuk menyelesaikan dilema tiga sulit adalah arsitektur Plasma, yang menggunakan teknologi cerdas untuk mendorong tanggung jawab ketersediaan data pemantauan kepada pengguna dengan cara yang kompatibel dengan insentif. Pada tahun 2017-2019, ketika kami hanya memiliki bukti penipuan sebagai satu-satunya cara untuk memperluas kapasitas komputasi, Plasma sangat terbatas dalam eksekusi yang aman, tetapi dengan penyebaran SNARKs( bukti nol pengetahuan yang ringkas dan non-interaktif ), arsitektur Plasma menjadi lebih layak untuk skenario penggunaan yang lebih luas daripada sebelumnya.
Kemajuan lebih lanjut dalam sampling ketersediaan data
Masalah apa yang sedang kita selesaikan?
Pada 13 Maret 2024, ketika peningkatan Dencun diluncurkan, blockchain Ethereum akan memiliki 3 blob sekitar 125 kB setiap slot 12 detik, atau bandwidth data yang tersedia per slot sekitar 375 kB. Jika data transaksi diterbitkan langsung di rantai, maka transfer ERC20 sekitar 180 byte, sehingga maksimum TPS Rollup di Ethereum adalah: 375000 / 12 / 180 = 173,6 TPS
Jika kita menambahkan nilai maksimum teoretis calldata Ethereum (: setiap slot 30 juta Gas / setiap byte 16 gas = setiap slot 1.875.000 byte ), maka menjadi 607 TPS. Dengan menggunakan PeerDAS, jumlah blob dapat meningkat menjadi 8-16, yang akan memberikan 463-926 TPS untuk calldata.
Ini adalah peningkatan besar untuk Ethereum L1, tetapi masih belum cukup. Kami menginginkan lebih banyak skalabilitas. Tujuan jangka menengah kami adalah 16 MB per slot, dan jika digabungkan dengan perbaikan kompresi data Rollup, ini akan menghasilkan ~58000 TPS.
Apa itu? Bagaimana cara kerjanya?
PeerDAS adalah implementasi yang relatif sederhana dari "1D sampling". Di Ethereum, setiap blob adalah polinomial 4096 derajat di atas bidang prima 253 bit (. Kami menyiarkan bagian polinomial, di mana setiap bagian berisi 16 nilai evaluasi dari 16 koordinat yang bersebelahan dari total 8192 koordinat. Dari 8192 nilai evaluasi ini, sembarang 4096 ) berdasarkan parameter yang diajukan saat ini: sembarang 64 dari 128 kemungkinan sampel ( dapat memulihkan blob.
Cara kerja PeerDAS adalah membuat setiap klien mendengarkan sejumlah kecil subnet, di mana subnet ke-i menyiarkan sampel ke-i dari setiap blob, dan dengan menanyakan kepada peer di jaringan p2p global ) siapa yang akan mendengarkan subnet yang berbeda ( untuk meminta blob lain yang dibutuhkannya dari subnet yang berbeda. Versi yang lebih konservatif SubnetDAS hanya menggunakan mekanisme subnet, tanpa permintaan tambahan ke lapisan peer. Proposal saat ini adalah untuk node yang berpartisipasi dalam bukti kepemilikan menggunakan SubnetDAS, sementara node lain ) yaitu klien ( menggunakan PeerDAS.
Secara teori, kita dapat memperluas skala "1D sampling" cukup besar: jika kita meningkatkan jumlah maksimum blob menjadi 256) dengan target 128(, maka kita dapat mencapai target 16MB, dan dalam sampling ketersediaan data setiap node memiliki 16 sampel * 128 blob * setiap blob setiap sampel 512 byte = bandwidth data 1 MB per slot. Ini hanya sedikit berada dalam batas toleransi kami: ini memungkinkan, tetapi ini berarti klien dengan bandwidth terbatas tidak dapat melakukan sampling. Kita dapat melakukan optimasi tertentu dengan mengurangi jumlah blob dan meningkatkan ukuran blob, tetapi ini akan membuat biaya rekonstruksi lebih tinggi.
Oleh karena itu, kami akhirnya ingin melangkah lebih jauh, melakukan 2D sampling )2D sampling(, metode ini tidak hanya melakukan pengambilan sampel acak di dalam blob, tetapi juga melakukan pengambilan sampel acak di antara blob. Dengan memanfaatkan sifat linier dari komitmen KZG, kami memperluas kumpulan blob dalam satu blok melalui satu set blob virtual baru, di mana blob virtual ini redundan mengkodekan informasi yang sama.
Oleh karena itu, pada akhirnya kami ingin melangkah lebih jauh, melakukan sampling 2D, yang tidak hanya melakukan sampling acak di dalam blob, tetapi juga di antara blob. Sifat linier dari komitmen KZG digunakan untuk memperluas kumpulan blob dalam sebuah blok, yang berisi daftar blob virtual baru yang menyandikan informasi yang sama secara redundan.
Penting untuk dicatat bahwa perluasan komitmen perhitungan tidak memerlukan blob, sehingga skema ini pada dasarnya ramah terhadap pembangunan blok terdistribusi. Node yang benar-benar membangun blok hanya perlu memiliki komitmen KZG blob, dan mereka dapat mengandalkan sampling ketersediaan data )DAS( untuk memverifikasi ketersediaan blok data. Sampling ketersediaan data satu dimensi )1D DAS( pada dasarnya juga ramah terhadap pembangunan blok terdistribusi.
![Vitalik artikel baru: Masa Depan Ethereum yang Mungkin, The Surge])https://img-cdn.gateio.im/webp-social/moments-71424e26868ad99f2adda7a27447820a.webp(
) Apa yang masih perlu dilakukan? Apa saja pertimbangannya?
Selanjutnya adalah menyelesaikan implementasi dan peluncuran PeerDAS. Setelah itu, jumlah blob di PeerDAS akan terus meningkat, sambil mengamati jaringan dengan cermat dan meningkatkan perangkat lunak untuk memastikan keamanan, ini adalah proses yang bertahap. Pada saat yang sama, kami berharap ada lebih banyak pekerjaan akademis untuk mengatur PeerDAS dan versi DAS lainnya serta interaksinya dengan masalah keamanan seperti aturan pemilihan fork.
Di tahap yang lebih jauh di masa depan, kami perlu melakukan lebih banyak pekerjaan untuk menentukan versi ideal dari 2D DAS dan membuktikan atribut keamanannya. Kami juga berharap dapat beralih dari KZG ke solusi alternatif yang aman secara kuantum dan tidak memerlukan pengaturan yang dapat dipercaya. Saat ini, kami masih belum jelas tentang kandidat mana yang ramah untuk pembangunan blok terdistribusi. Bahkan dengan menggunakan teknologi "brute force" yang mahal, yaitu menggunakan STARK rekursif untuk menghasilkan bukti validitas yang digunakan untuk membangun kembali baris dan kolom, itu masih tidak cukup untuk memenuhi kebutuhan, karena meskipun secara teknis, ukuran satu STARK adalah O(log)n### * log(log(n)( hash ( menggunakan STIR), tetapi pada kenyataannya STARK hampir sebesar seluruh blob.
Saya percaya jalur realitas jangka panjang adalah:
Melaksanakan DAS 2D yang ideal;
Tetap menggunakan 1D DAS, mengorbankan efisiensi bandwidth sampling, demi kesederhanaan dan ketahanan, menerima batas data yang lebih rendah.
Mengabaikan DA, sepenuhnya menerima Plasma sebagai arsitektur Layer2 utama yang menjadi fokus kami.
Harap dicatat, bahkan jika kami memutuskan untuk memperluas eksekusi langsung di lapisan L1, pilihan ini tetap ada. Ini karena jika lapisan L1 harus menangani sejumlah besar TPS, blok L1 akan menjadi sangat besar, klien akan ingin memiliki cara yang efisien untuk memverifikasi keakuratannya, oleh karena itu kami harus menggunakan teknologi yang sama di lapisan L1 seperti Rollup) seperti ZK-EVM dan DAS(.
) Bagaimana cara berinteraksi dengan bagian lain dari peta jalan?
Jika kompresi data diterapkan, permintaan untuk 2D DAS akan berkurang, atau setidaknya akan tertunda, jika Plasma digunakan secara luas, maka permintaan akan berkurang lebih jauh. DAS juga menantang protokol dan mekanisme pembangunan blok terdistribusi: meskipun DAS secara teoritis ramah terhadap rekonstruksi terdistribusi, dalam praktiknya ini perlu digabungkan dengan proposal daftar inklusi paket dan mekanisme pemilihan fork di sekitarnya.
Kompresi Data
Apa masalah yang kita selesaikan?
Setiap transaksi dalam Rollup akan menggunakan banyak ruang data di on-chain: transfer ERC20 membutuhkan sekitar 180 byte. Bahkan dengan sampling ketersediaan data yang ideal, ini membatasi skalabilitas protokol Layer. Setiap slot 16 MB, kita mendapatkan:
16000000 / 12 / 180 = 7407 TPS
Jika kita tidak hanya dapat menyelesaikan masalah numerator, tetapi juga dapat menyelesaikan masalah denominator, bagaimana jika setiap transaksi dalam Rollup mengambil lebih sedikit byte di blockchain?
Apa itu, bagaimana cara kerjanya?
Menurut saya, penjelasan terbaik adalah gambar ini dari dua tahun yang lalu:
Dalam kompresi byte nol, setiap deretan byte nol yang panjang digantikan dengan dua byte yang menunjukkan berapa banyak byte nol. Lebih lanjut, kami memanfaatkan transaksi tersebut.
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
11 Suka
Hadiah
11
4
Bagikan
Komentar
0/400
Ser_Liquidated
· 17jam yang lalu
Buka apa pun, saya sudah jebakan di dalamnya.
Lihat AsliBalas0
ThatsNotARugPull
· 08-04 21:14
Jarang sekali artikel ini tidak menggantung harapan~
Lihat AsliBalas0
SellTheBounce
· 08-04 21:09
Sekali lagi rencana pemotongan para suckers. Sejarah telah mengajarkan kita untuk jual.
Lihat AsliBalas0
SchroedingerAirdrop
· 08-04 21:06
Masih dalam rollup? Sambil menjual, tiba-tiba hilang.
Ethereum The Surge: Jalan dan Tantangan Perluasan 100.000 TPS
Masa Depan Ethereum yang Mungkin: The Surge
Peta jalan Ethereum awalnya mencakup dua strategi skalabilitas: sharding dan protokol Layer 2. Kedua jalur ini akhirnya bergabung, membentuk peta jalan yang berfokus pada Rollup, yang hingga kini masih merupakan strategi perluasan Ethereum. Peta jalan yang berfokus pada Rollup mengajukan pembagian tugas yang sederhana: Ethereum L1 berfokus untuk menjadi lapisan dasar yang kuat dan terdesentralisasi, sementara L2 mengambil tugas untuk membantu ekosistem berkembang.
Tahun ini, peta jalan yang berfokus pada Rollup telah mencapai hasil penting: dengan peluncuran EIP-4844 blobs, bandwidth data Ethereum L1 meningkat secara signifikan, dan beberapa Rollup mesin virtual Ethereum telah memasuki fase pertama. Setiap L2 ada sebagai "shard" yang memiliki aturan dan logika internalnya sendiri, keberagaman dan variasi cara implementasi shard kini telah menjadi kenyataan. Namun, jalan ini juga menghadapi beberapa tantangan unik. Oleh karena itu, tugas kita sekarang adalah menyelesaikan peta jalan yang berfokus pada Rollup, dan mengatasi masalah ini, sambil mempertahankan ketahanan dan desentralisasi yang khas dari Ethereum L1.
The Surge: Tujuan Kunci
Di masa depan, Ethereum melalui L2 dapat mencapai lebih dari 100.000 TPS;
Mempertahankan desentralisasi dan ketahanan L1;
Setidaknya beberapa L2 sepenuhnya mewarisi atribut inti Ethereum ( yang dapat dipercaya, terbuka, dan tahan sensor );
Ethereum harus terasa seperti ekosistem yang terintegrasi, bukan 34 blockchain yang berbeda.
Isi Bab Ini
Paradoks Segitiga Skalabilitas
Paradoks segitiga skalabilitas berpendapat bahwa ada kontradiksi antara tiga fitur blockchain: desentralisasi ( lebih spesifiknya: biaya menjalankan node yang rendah ), skalabilitas ( jumlah transaksi yang ditangani banyak ) dan keamanan ( penyerang perlu menghancurkan sebagian besar node di jaringan untuk membuat satu transaksi gagal ).
Perlu dicatat bahwa paradoks segitiga bukanlah sebuah teorema, dan posting yang memperkenalkan paradoks segitiga juga tidak disertai dengan bukti matematis. Ini memang memberikan argumen matematis heuristik: jika sebuah node ramah terdesentralisasi ( misalnya, laptop konsumen ) dapat memverifikasi N transaksi per detik, dan Anda memiliki sebuah rantai yang dapat memproses k*N transaksi per detik, maka (i) setiap transaksi hanya dapat dilihat oleh 1/k node, yang berarti penyerang hanya perlu merusak sejumlah kecil node untuk melewatkan transaksi jahat, atau (ii) node Anda akan menjadi kuat, sementara rantai Anda tidak akan terdesentralisasi. Tujuan artikel ini sama sekali bukan untuk membuktikan bahwa mematahkan paradoks segitiga tidak mungkin; sebaliknya, ini bertujuan untuk menunjukkan bahwa mematahkan paradoks tiga sangat sulit, dan itu membutuhkan untuk keluar dari kerangka pemikiran yang tersirat dalam argumen tersebut.
Selama bertahun-tahun, beberapa rantai berkinerja tinggi sering mengklaim bahwa mereka telah menyelesaikan paradoks trilema tanpa mengubah arsitektur secara fundamental, biasanya dengan menerapkan teknik rekayasa perangkat lunak untuk mengoptimalkan node. Ini selalu menyesatkan, menjalankan node di rantai ini jauh lebih sulit dibandingkan menjalankan node di Ethereum. Artikel ini akan membahas mengapa hal ini terjadi, dan mengapa hanya bergantung pada rekayasa perangkat lunak klien L1 saja tidak cukup untuk menskalakan Ethereum?
Namun, kombinasi sampling ketersediaan data dan SNARKs memang menyelesaikan paradoks segitiga: ini memungkinkan klien untuk memverifikasi bahwa sejumlah data tersedia dan sejumlah langkah perhitungan telah dilakukan dengan benar, hanya dengan mengunduh sejumlah kecil data dan melakukan sedikit perhitungan. SNARKs bersifat tanpa kepercayaan. Sampling ketersediaan data memiliki model kepercayaan few-of-N yang halus, tetapi mempertahankan karakteristik dasar dari rantai yang tidak dapat diskalakan, yaitu bahkan serangan 51% tidak dapat memaksa blok jahat diterima oleh jaringan.
Metode lain untuk menyelesaikan dilema tiga sulit adalah arsitektur Plasma, yang menggunakan teknologi cerdas untuk mendorong tanggung jawab ketersediaan data pemantauan kepada pengguna dengan cara yang kompatibel dengan insentif. Pada tahun 2017-2019, ketika kami hanya memiliki bukti penipuan sebagai satu-satunya cara untuk memperluas kapasitas komputasi, Plasma sangat terbatas dalam eksekusi yang aman, tetapi dengan penyebaran SNARKs( bukti nol pengetahuan yang ringkas dan non-interaktif ), arsitektur Plasma menjadi lebih layak untuk skenario penggunaan yang lebih luas daripada sebelumnya.
Kemajuan lebih lanjut dalam sampling ketersediaan data
Masalah apa yang sedang kita selesaikan?
Pada 13 Maret 2024, ketika peningkatan Dencun diluncurkan, blockchain Ethereum akan memiliki 3 blob sekitar 125 kB setiap slot 12 detik, atau bandwidth data yang tersedia per slot sekitar 375 kB. Jika data transaksi diterbitkan langsung di rantai, maka transfer ERC20 sekitar 180 byte, sehingga maksimum TPS Rollup di Ethereum adalah: 375000 / 12 / 180 = 173,6 TPS
Jika kita menambahkan nilai maksimum teoretis calldata Ethereum (: setiap slot 30 juta Gas / setiap byte 16 gas = setiap slot 1.875.000 byte ), maka menjadi 607 TPS. Dengan menggunakan PeerDAS, jumlah blob dapat meningkat menjadi 8-16, yang akan memberikan 463-926 TPS untuk calldata.
Ini adalah peningkatan besar untuk Ethereum L1, tetapi masih belum cukup. Kami menginginkan lebih banyak skalabilitas. Tujuan jangka menengah kami adalah 16 MB per slot, dan jika digabungkan dengan perbaikan kompresi data Rollup, ini akan menghasilkan ~58000 TPS.
Apa itu? Bagaimana cara kerjanya?
PeerDAS adalah implementasi yang relatif sederhana dari "1D sampling". Di Ethereum, setiap blob adalah polinomial 4096 derajat di atas bidang prima 253 bit (. Kami menyiarkan bagian polinomial, di mana setiap bagian berisi 16 nilai evaluasi dari 16 koordinat yang bersebelahan dari total 8192 koordinat. Dari 8192 nilai evaluasi ini, sembarang 4096 ) berdasarkan parameter yang diajukan saat ini: sembarang 64 dari 128 kemungkinan sampel ( dapat memulihkan blob.
Cara kerja PeerDAS adalah membuat setiap klien mendengarkan sejumlah kecil subnet, di mana subnet ke-i menyiarkan sampel ke-i dari setiap blob, dan dengan menanyakan kepada peer di jaringan p2p global ) siapa yang akan mendengarkan subnet yang berbeda ( untuk meminta blob lain yang dibutuhkannya dari subnet yang berbeda. Versi yang lebih konservatif SubnetDAS hanya menggunakan mekanisme subnet, tanpa permintaan tambahan ke lapisan peer. Proposal saat ini adalah untuk node yang berpartisipasi dalam bukti kepemilikan menggunakan SubnetDAS, sementara node lain ) yaitu klien ( menggunakan PeerDAS.
Secara teori, kita dapat memperluas skala "1D sampling" cukup besar: jika kita meningkatkan jumlah maksimum blob menjadi 256) dengan target 128(, maka kita dapat mencapai target 16MB, dan dalam sampling ketersediaan data setiap node memiliki 16 sampel * 128 blob * setiap blob setiap sampel 512 byte = bandwidth data 1 MB per slot. Ini hanya sedikit berada dalam batas toleransi kami: ini memungkinkan, tetapi ini berarti klien dengan bandwidth terbatas tidak dapat melakukan sampling. Kita dapat melakukan optimasi tertentu dengan mengurangi jumlah blob dan meningkatkan ukuran blob, tetapi ini akan membuat biaya rekonstruksi lebih tinggi.
Oleh karena itu, kami akhirnya ingin melangkah lebih jauh, melakukan 2D sampling )2D sampling(, metode ini tidak hanya melakukan pengambilan sampel acak di dalam blob, tetapi juga melakukan pengambilan sampel acak di antara blob. Dengan memanfaatkan sifat linier dari komitmen KZG, kami memperluas kumpulan blob dalam satu blok melalui satu set blob virtual baru, di mana blob virtual ini redundan mengkodekan informasi yang sama.
Oleh karena itu, pada akhirnya kami ingin melangkah lebih jauh, melakukan sampling 2D, yang tidak hanya melakukan sampling acak di dalam blob, tetapi juga di antara blob. Sifat linier dari komitmen KZG digunakan untuk memperluas kumpulan blob dalam sebuah blok, yang berisi daftar blob virtual baru yang menyandikan informasi yang sama secara redundan.
Penting untuk dicatat bahwa perluasan komitmen perhitungan tidak memerlukan blob, sehingga skema ini pada dasarnya ramah terhadap pembangunan blok terdistribusi. Node yang benar-benar membangun blok hanya perlu memiliki komitmen KZG blob, dan mereka dapat mengandalkan sampling ketersediaan data )DAS( untuk memverifikasi ketersediaan blok data. Sampling ketersediaan data satu dimensi )1D DAS( pada dasarnya juga ramah terhadap pembangunan blok terdistribusi.
![Vitalik artikel baru: Masa Depan Ethereum yang Mungkin, The Surge])https://img-cdn.gateio.im/webp-social/moments-71424e26868ad99f2adda7a27447820a.webp(
) Apa yang masih perlu dilakukan? Apa saja pertimbangannya?
Selanjutnya adalah menyelesaikan implementasi dan peluncuran PeerDAS. Setelah itu, jumlah blob di PeerDAS akan terus meningkat, sambil mengamati jaringan dengan cermat dan meningkatkan perangkat lunak untuk memastikan keamanan, ini adalah proses yang bertahap. Pada saat yang sama, kami berharap ada lebih banyak pekerjaan akademis untuk mengatur PeerDAS dan versi DAS lainnya serta interaksinya dengan masalah keamanan seperti aturan pemilihan fork.
Di tahap yang lebih jauh di masa depan, kami perlu melakukan lebih banyak pekerjaan untuk menentukan versi ideal dari 2D DAS dan membuktikan atribut keamanannya. Kami juga berharap dapat beralih dari KZG ke solusi alternatif yang aman secara kuantum dan tidak memerlukan pengaturan yang dapat dipercaya. Saat ini, kami masih belum jelas tentang kandidat mana yang ramah untuk pembangunan blok terdistribusi. Bahkan dengan menggunakan teknologi "brute force" yang mahal, yaitu menggunakan STARK rekursif untuk menghasilkan bukti validitas yang digunakan untuk membangun kembali baris dan kolom, itu masih tidak cukup untuk memenuhi kebutuhan, karena meskipun secara teknis, ukuran satu STARK adalah O(log)n### * log(log(n)( hash ( menggunakan STIR), tetapi pada kenyataannya STARK hampir sebesar seluruh blob.
Saya percaya jalur realitas jangka panjang adalah:
Harap dicatat, bahkan jika kami memutuskan untuk memperluas eksekusi langsung di lapisan L1, pilihan ini tetap ada. Ini karena jika lapisan L1 harus menangani sejumlah besar TPS, blok L1 akan menjadi sangat besar, klien akan ingin memiliki cara yang efisien untuk memverifikasi keakuratannya, oleh karena itu kami harus menggunakan teknologi yang sama di lapisan L1 seperti Rollup) seperti ZK-EVM dan DAS(.
) Bagaimana cara berinteraksi dengan bagian lain dari peta jalan?
Jika kompresi data diterapkan, permintaan untuk 2D DAS akan berkurang, atau setidaknya akan tertunda, jika Plasma digunakan secara luas, maka permintaan akan berkurang lebih jauh. DAS juga menantang protokol dan mekanisme pembangunan blok terdistribusi: meskipun DAS secara teoritis ramah terhadap rekonstruksi terdistribusi, dalam praktiknya ini perlu digabungkan dengan proposal daftar inklusi paket dan mekanisme pemilihan fork di sekitarnya.
Kompresi Data
Apa masalah yang kita selesaikan?
Setiap transaksi dalam Rollup akan menggunakan banyak ruang data di on-chain: transfer ERC20 membutuhkan sekitar 180 byte. Bahkan dengan sampling ketersediaan data yang ideal, ini membatasi skalabilitas protokol Layer. Setiap slot 16 MB, kita mendapatkan:
16000000 / 12 / 180 = 7407 TPS
Jika kita tidak hanya dapat menyelesaikan masalah numerator, tetapi juga dapat menyelesaikan masalah denominator, bagaimana jika setiap transaksi dalam Rollup mengambil lebih sedikit byte di blockchain?
Apa itu, bagaimana cara kerjanya?
Menurut saya, penjelasan terbaik adalah gambar ini dari dua tahun yang lalu:
Dalam kompresi byte nol, setiap deretan byte nol yang panjang digantikan dengan dua byte yang menunjukkan berapa banyak byte nol. Lebih lanjut, kami memanfaatkan transaksi tersebut.