Lộ trình của Ethereum ban đầu bao gồm hai chiến lược mở rộng: phân đoạn và giao thức Layer2. Phân đoạn cho phép mỗi nút chỉ cần xác minh và lưu trữ một phần giao dịch, trong khi Layer2 xây dựng mạng trên Ethereum, tận dụng tính bảo mật của nó nhưng giữ hầu hết dữ liệu và tính toán bên ngoài chuỗi chính. Hai phương pháp này cuối cùng đã được hợp nhất thành lộ trình tập trung vào Rollup, đến nay vẫn là chiến lược mở rộng của Ethereum.
Lộ trình trung tâm Rollup đưa ra một phân công đơn giản: Ethereum L1 tập trung vào việc trở thành một lớp cơ sở mạnh mẽ và phi tập trung, trong khi L2 đảm nhận nhiệm vụ hỗ trợ hệ sinh thái mở rộng. Mô hình này rất phổ biến trong xã hội: hệ thống tòa án (L1) tồn tại để bảo vệ hợp đồng và quyền sở hữu tài sản, trong khi các doanh nhân (L2) xây dựng dựa trên nền tảng này, thúc đẩy sự phát triển của nhân loại.
Năm nay, lộ trình tập trung vào Rollup đã đạt được những tiến bộ quan trọng: Sự ra mắt của EIP-4844 blobs đã tăng đáng kể băng thông dữ liệu của Ethereum L1, nhiều máy ảo Ethereum (EVM) Rollup đã bước vào giai đoạn đầu tiên. Mỗi L2 tồn tại như một "mảnh" với các quy tắc và logic riêng, sự đa dạng trong cách thức thực hiện mảnh giờ đây đã trở thành hiện thực. Nhưng con đường này cũng đối mặt với một số thách thức độc đáo. Nhiệm vụ hiện tại của chúng ta là hoàn thành lộ trình tập trung vào Rollup, giải quyết những vấn đề này, đồng thời duy trì sự vững chắc và phi tập trung của Ethereum L1.
The Surge: Mục tiêu chính
Tương lai Ethereum có thể đạt trên 100.000 TPS thông qua L2;
Giữ cho sự phi tập trung và độ bền của L1;
Ít nhất một phần L2 hoàn toàn kế thừa các thuộc tính cốt lõi của Ethereum ( để tin cậy, mở, kháng kiểm duyệt );
Ethereum nên cảm thấy như một hệ sinh thái thống nhất, chứ không phải 34 blockchain khác nhau.
Nghịch lý tam giác khả năng mở rộng
Tam giác nghịch lý về khả năng mở rộng cho rằng có mâu thuẫn giữa ba đặc điểm của blockchain: phi tập trung (, chi phí nút chạy thấp ), khả năng mở rộng ( xử lý một lượng lớn giao dịch ) và tính bảo mật ( kẻ tấn công cần phá hủy một phần lớn các nút trong mạng để làm cho một giao dịch đơn lẻ thất bại ).
Nghịch lý tam giác không phải là một định lý, bài viết giới thiệu nó cũng không kèm theo chứng minh toán học. Nó đưa ra một lập luận toán học trực giác: nếu một nút thân thiện với phi tập trung có thể xác minh N giao dịch mỗi giây, và bạn có một chuỗi xử lý k*N giao dịch mỗi giây, thì: (i) mỗi giao dịch chỉ có thể được 1/k nút nhìn thấy, điều này có nghĩa là kẻ tấn công chỉ cần phá hủy một số ít nút để thực hiện một giao dịch độc hại, hoặc (ii) nút của bạn sẽ trở nên mạnh mẽ, trong khi chuỗi của bạn sẽ không phi tập trung. Bài viết này nhằm chỉ ra rằng việc phá vỡ nghịch lý ba là rất khó, cần phải vượt ra ngoài khung tư duy mà lập luận này ngụ ý.
Trong nhiều năm qua, một số chuỗi hiệu suất cao thường tuyên bố rằng họ đã giải quyết được tam giác bất khả thi mà không thay đổi kiến trúc một cách cơ bản, thường là thông qua việc tối ưu hóa nút. Điều này luôn gây hiểu lầm, vì việc vận hành nút trên những chuỗi này khó hơn rất nhiều so với việc vận hành nút trên Ethereum.
Tuy nhiên, sự kết hợp giữa mẫu khả dụng dữ liệu và SNARKs thực sự giải quyết được nghịch lý tam giác: nó cho phép khách hàng xác minh một lượng dữ liệu là khả dụng với chỉ một lượng nhỏ dữ liệu được tải xuống và thực hiện rất ít phép toán. SNARKs là không cần tin cậy. Mẫu khả dụng dữ liệu có một mô hình niềm tin tinh tế few-of-N, nhưng nó vẫn giữ lại các đặc điểm cơ bản mà chuỗi không thể mở rộng có, tức là ngay cả khi bị tấn công 51%, cũng không thể buộc các khối xấu được mạng chấp nhận.
Một phương pháp khác để giải quyết ba khó khăn là kiến trúc Plasma, nó sử dụng công nghệ tinh vi để chuyển giao trách nhiệm giám sát tính khả dụng của dữ liệu cho người dùng một cách tương thích với các động lực. Ngay từ năm 2017-2019, khi chúng tôi chỉ có chứng minh gian lận như một phương tiện để mở rộng khả năng tính toán, Plasma đã rất hạn chế trong việc thực hiện an toàn, nhưng với sự phổ biến của SNARKs, kiến trúc Plasma trở nên khả thi hơn cho nhiều trường hợp sử dụng rộng rãi hơn bao giờ hết.
Tiến triển hơn nữa trong việc lấy mẫu tính khả dụng dữ liệu
Chúng ta đang giải quyết vấn đề gì?
Vào ngày 13 tháng 3 năm 2024, khi bản nâng cấp Dencun được ra mắt, mỗi slot của chuỗi khối Ethereum trong vòng 12 giây sẽ có 3 blob khoảng 125 kB, hoặc băng thông dữ liệu khả dụng cho mỗi slot khoảng 375 kB. Giả sử dữ liệu giao dịch được phát hành trực tiếp trên chuỗi, thì chuyển khoản ERC20 khoảng 180 byte, do đó TPS tối đa của Rollup trên Ethereum là: 375000 / 12 / 180 = 173.6 TPS
Nếu chúng ta cộng thêm giá trị tối đa lý thuyết của calldata Ethereum(: mỗi slot 30 triệu Gas / mỗi byte 16 gas = mỗi slot 1,875,000 byte), thì sẽ trở thành 607 TPS. Sử dụng PeerDAS, số lượng blob có thể tăng lên 8-16, điều này sẽ cung cấp cho calldata 463-926 TPS.
Đây là một cải tiến lớn đối với Ethereum L1, nhưng vẫn chưa đủ. Chúng tôi muốn có nhiều khả năng mở rộng hơn. Mục tiêu trung hạn của chúng tôi là 16 MB cho mỗi slot, nếu kết hợp với cải tiến nén dữ liệu Rollup, sẽ mang lại ~58000 TPS.
Nó là gì? Nó hoạt động như thế nào?
PeerDAS là một triển khai tương đối đơn giản của "1D sampling". Trong Ethereum, mỗi blob là một đa thức bậc 4096 trên trường số nguyên tố 253位素数域(prime field). Chúng tôi phát sóng các shares của đa thức, trong đó mỗi shares chứa 16 giá trị đánh giá từ 16 tọa độ liền kề trong tổng số 8192 tọa độ. Trong 8192 giá trị đánh giá này, bất kỳ 4096 giá trị nào( theo các tham số hiện tại được đề xuất: bất kỳ 64 trong 128 mẫu khả thi) đều có thể phục hồi blob.
Nguyên lý hoạt động của PeerDAS là cho phép mỗi khách hàng lắng nghe một số lượng nhỏ subnet, trong đó subnet thứ i phát sóng mẫu thứ i của bất kỳ blob nào, và yêu cầu các đối tác trong mạng p2p toàn cầu ( ai sẽ lắng nghe các subnet khác ) để yêu cầu blob trên các subnet khác mà nó cần. Phiên bản bảo thủ hơn SubnetDAS chỉ sử dụng cơ chế subnet mà không có các yêu cầu bổ sung từ lớp đối tác. Đề xuất hiện tại là cho phép các nút tham gia chứng minh cổ phần sử dụng SubnetDAS, trong khi các nút khác ( tức là khách hàng ) sử dụng PeerDAS.
Về lý thuyết, chúng ta có thể mở rộng quy mô của "1D sampling" khá lớn: nếu chúng ta tăng số lượng blob tối đa lên 256( với mục tiêu là 128), thì chúng ta có thể đạt được mục tiêu 16MB, trong khi sampling khả năng dữ liệu mỗi nút có 16 mẫu * 128 blob * mỗi blob mỗi mẫu 512 byte = băng thông dữ liệu 1 MB mỗi slot. Điều này chỉ vừa đủ trong phạm vi chịu đựng của chúng tôi: điều này khả thi, nhưng có nghĩa là khách hàng có băng thông hạn chế không thể sampling. Chúng ta có thể tối ưu hóa điều này ở một mức độ nào đó bằng cách giảm số lượng blob và tăng kích thước blob, nhưng điều này sẽ làm tăng chi phí tái tạo.
Do đó, chúng tôi cuối cùng muốn tiến xa hơn, thực hiện 2D sampling (2D sampling), phương pháp này không chỉ thực hiện lấy mẫu ngẫu nhiên trong blob mà còn thực hiện lấy mẫu ngẫu nhiên giữa các blob. Sử dụng thuộc tính tuyến tính của KZG cam kết, mở rộng tập hợp blob trong một khối bằng một tập hợp các blob ảo mới, những blob ảo này mã hóa thừa thông tin giống nhau.
Do đó, cuối cùng chúng tôi muốn tiến xa hơn, thực hiện mẫu 2D, không chỉ ngẫu nhiên trong blob mà còn giữa các blob. Tính chất tuyến tính của cam kết KZG được sử dụng để mở rộng tập hợp blob trong một khối, bao gồm danh sách blob ảo mới được mã hóa dư thừa cho cùng một thông tin.
Điều quan trọng là việc tính toán sự cam kết mở rộng không cần có blob, do đó phương án này về cơ bản là thân thiện với việc xây dựng khối phân phối. Các nút thực hiện việc xây dựng khối chỉ cần sở hữu sự cam kết KZG blob, và chúng có thể dựa vào mẫu khả năng dữ liệu (DAS) để xác minh khả năng có sẵn của khối dữ liệu. Mẫu khả năng dữ liệu một chiều (1D DAS) về cơ bản cũng thân thiện với việc xây dựng khối phân phối.
( còn cần làm gì? Còn có những sự cân nhắc nào?
Tiếp theo là hoàn thành việc triển khai và ra mắt PeerDAS. Sau đó, số lượng blob trên PeerDAS sẽ tăng lên liên tục, đồng thời theo dõi chặt chẽ mạng lưới và cải tiến phần mềm để đảm bảo an toàn, đây là một quá trình dần dần. Cùng lúc đó, chúng tôi hy vọng có nhiều nghiên cứu học thuật hơn để quy định PeerDAS và các phiên bản DAS khác cũng như tương tác của chúng với các vấn đề an toàn như quy tắc chọn nhánh.
Trong giai đoạn xa hơn trong tương lai, chúng ta cần làm nhiều việc hơn để xác định phiên bản lý tưởng của 2D DAS và chứng minh các thuộc tính an toàn của nó. Chúng tôi cũng hy vọng cuối cùng có thể chuyển từ KZG sang một giải pháp thay thế an toàn với lượng tử mà không cần thiết lập đáng tin cậy. Hiện tại, chúng tôi vẫn không rõ có những lựa chọn nào thân thiện với việc xây dựng khối phân tán. Ngay cả khi sử dụng công nghệ "brute force" tốn kém, tức là sử dụng STARK đệ quy để tạo ra các chứng minh tính hợp lệ cho việc tái tạo các hàng và cột, cũng không đủ để đáp ứng nhu cầu, bởi vì mặc dù về mặt kỹ thuật, kích thước của một STARK là O)log###n( * log(log)n(( giá trị băm) sử dụng STIR), nhưng thực tế STARK gần như lớn như toàn bộ blob.
Tôi nghĩ rằng con đường thực tế lâu dài là:
Triển khai DAS 2D lý tưởng;
Kiên trì sử dụng 1D DAS, hy sinh hiệu quả băng thông mẫu, chấp nhận giới hạn dữ liệu thấp hơn vì sự đơn giản và độ tin cậy.
Từ bỏ DA, hoàn toàn chấp nhận Plasma là kiến trúc Layer2 chính mà chúng tôi quan tâm.
Xin lưu ý rằng, ngay cả khi chúng tôi quyết định mở rộng thực hiện trực tiếp trên lớp L1, lựa chọn này vẫn tồn tại. Điều này là do nếu lớp L1 phải xử lý một lượng lớn TPS, khối L1 sẽ trở nên rất lớn, và khách hàng sẽ muốn có một phương pháp hiệu quả để xác minh tính chính xác của chúng, do đó chúng tôi sẽ phải sử dụng công nghệ giống như Rollup( như ZK-EVM và DAS) trên lớp L1.
( Làm thế nào để tương tác với các phần khác của lộ trình?
Nếu thực hiện nén dữ liệu, nhu cầu về 2D DAS sẽ giảm bớt, hoặc ít nhất sẽ bị trì hoãn, nếu Plasma được sử dụng rộng rãi, thì nhu cầu sẽ giảm thêm. DAS cũng đặt ra thách thức cho các giao thức và cơ chế xây dựng khối phân phối: mặc dù DAS lý thuyết là thân thiện với việc tái tạo phân phối, nhưng thực tế điều này cần được kết hợp với các đề xuất danh sách bao gồm gói và cơ chế lựa chọn phân nhánh xung quanh.
![Vitalik bài viết mới: Tương lai có thể của Ethereum, The Surge])https://img-cdn.gateio.im/webp-social/moments-c585e5f955b6646c513eaecf452b0597.webp###
Nén dữ liệu
( Chúng tôi đang giải quyết vấn đề gì?
Mỗi giao dịch trong Rollup sẽ chiếm một lượng lớn không gian dữ liệu trên chuỗi: việc chuyển ERC20 khoảng 180 byte. Ngay cả khi có mẫu khả dụng dữ liệu lý tưởng, điều này cũng hạn chế khả năng mở rộng của giao thức Layer. Mỗi slot 16 MB, ta có:
16000000 / 12 / 180 = 7407 TPS
Nếu chúng ta không chỉ giải quyết vấn đề của tử số mà còn giải quyết vấn đề của mẫu số, để mỗi giao dịch trong Rollup chiếm ít byte hơn trên chuỗi, thì điều gì sẽ xảy ra?
) Nó là gì, nó hoạt động như thế nào?
Theo tôi, lời giải thích tốt nhất là bức tranh này cách đây hai năm:
![Vitalik bài viết mới: Tương lai có thể của Ethereum, The Surge]###https://img-cdn.gateio.im/webp-social/moments-a04daca8af5d6af3c06b77a97aae477d.webp###
Trong nén byte không, sử dụng hai byte để thay thế mỗi chuỗi byte không dài, biểu thị số lượng byte không. Hơn nữa, chúng tôi đã tận dụng các thuộc tính cụ thể của giao dịch:
Ký tên tổng hợp: Chúng tôi đã chuyển từ ký tên ECDSA sang ký tên BLS, đặc điểm của ký tên BLS là nhiều chữ ký có thể được kết hợp thành một chữ ký duy nhất, chữ ký này có thể chứng minh tất cả các nguyên bản.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
6 thích
Phần thưởng
6
4
Chia sẻ
Bình luận
0/400
FloorSweeper
· 17giờ trước
Đừng hỏi tại sao nữa, L2 chính là đỉnh.
Xem bản gốcTrả lời0
RamenDeFiSurvivor
· 17giờ trước
瓦叻 L2 thật tuyệt
Xem bản gốcTrả lời0
ShadowStaker
· 17giờ trước
hmm hiệu suất mev trên l2s vẫn cần cải thiện thật lòng... cấu trúc mạng vẫn chưa hoàn thiện lắm
Ethereum mở rộng giai đoạn mới: Phân tích độ sâu lộ trình The Surge
Tương lai có thể của Ethereum: The Surge
Lộ trình của Ethereum ban đầu bao gồm hai chiến lược mở rộng: phân đoạn và giao thức Layer2. Phân đoạn cho phép mỗi nút chỉ cần xác minh và lưu trữ một phần giao dịch, trong khi Layer2 xây dựng mạng trên Ethereum, tận dụng tính bảo mật của nó nhưng giữ hầu hết dữ liệu và tính toán bên ngoài chuỗi chính. Hai phương pháp này cuối cùng đã được hợp nhất thành lộ trình tập trung vào Rollup, đến nay vẫn là chiến lược mở rộng của Ethereum.
Lộ trình trung tâm Rollup đưa ra một phân công đơn giản: Ethereum L1 tập trung vào việc trở thành một lớp cơ sở mạnh mẽ và phi tập trung, trong khi L2 đảm nhận nhiệm vụ hỗ trợ hệ sinh thái mở rộng. Mô hình này rất phổ biến trong xã hội: hệ thống tòa án (L1) tồn tại để bảo vệ hợp đồng và quyền sở hữu tài sản, trong khi các doanh nhân (L2) xây dựng dựa trên nền tảng này, thúc đẩy sự phát triển của nhân loại.
Năm nay, lộ trình tập trung vào Rollup đã đạt được những tiến bộ quan trọng: Sự ra mắt của EIP-4844 blobs đã tăng đáng kể băng thông dữ liệu của Ethereum L1, nhiều máy ảo Ethereum (EVM) Rollup đã bước vào giai đoạn đầu tiên. Mỗi L2 tồn tại như một "mảnh" với các quy tắc và logic riêng, sự đa dạng trong cách thức thực hiện mảnh giờ đây đã trở thành hiện thực. Nhưng con đường này cũng đối mặt với một số thách thức độc đáo. Nhiệm vụ hiện tại của chúng ta là hoàn thành lộ trình tập trung vào Rollup, giải quyết những vấn đề này, đồng thời duy trì sự vững chắc và phi tập trung của Ethereum L1.
The Surge: Mục tiêu chính
Nghịch lý tam giác khả năng mở rộng
Tam giác nghịch lý về khả năng mở rộng cho rằng có mâu thuẫn giữa ba đặc điểm của blockchain: phi tập trung (, chi phí nút chạy thấp ), khả năng mở rộng ( xử lý một lượng lớn giao dịch ) và tính bảo mật ( kẻ tấn công cần phá hủy một phần lớn các nút trong mạng để làm cho một giao dịch đơn lẻ thất bại ).
Nghịch lý tam giác không phải là một định lý, bài viết giới thiệu nó cũng không kèm theo chứng minh toán học. Nó đưa ra một lập luận toán học trực giác: nếu một nút thân thiện với phi tập trung có thể xác minh N giao dịch mỗi giây, và bạn có một chuỗi xử lý k*N giao dịch mỗi giây, thì: (i) mỗi giao dịch chỉ có thể được 1/k nút nhìn thấy, điều này có nghĩa là kẻ tấn công chỉ cần phá hủy một số ít nút để thực hiện một giao dịch độc hại, hoặc (ii) nút của bạn sẽ trở nên mạnh mẽ, trong khi chuỗi của bạn sẽ không phi tập trung. Bài viết này nhằm chỉ ra rằng việc phá vỡ nghịch lý ba là rất khó, cần phải vượt ra ngoài khung tư duy mà lập luận này ngụ ý.
Trong nhiều năm qua, một số chuỗi hiệu suất cao thường tuyên bố rằng họ đã giải quyết được tam giác bất khả thi mà không thay đổi kiến trúc một cách cơ bản, thường là thông qua việc tối ưu hóa nút. Điều này luôn gây hiểu lầm, vì việc vận hành nút trên những chuỗi này khó hơn rất nhiều so với việc vận hành nút trên Ethereum.
Tuy nhiên, sự kết hợp giữa mẫu khả dụng dữ liệu và SNARKs thực sự giải quyết được nghịch lý tam giác: nó cho phép khách hàng xác minh một lượng dữ liệu là khả dụng với chỉ một lượng nhỏ dữ liệu được tải xuống và thực hiện rất ít phép toán. SNARKs là không cần tin cậy. Mẫu khả dụng dữ liệu có một mô hình niềm tin tinh tế few-of-N, nhưng nó vẫn giữ lại các đặc điểm cơ bản mà chuỗi không thể mở rộng có, tức là ngay cả khi bị tấn công 51%, cũng không thể buộc các khối xấu được mạng chấp nhận.
Một phương pháp khác để giải quyết ba khó khăn là kiến trúc Plasma, nó sử dụng công nghệ tinh vi để chuyển giao trách nhiệm giám sát tính khả dụng của dữ liệu cho người dùng một cách tương thích với các động lực. Ngay từ năm 2017-2019, khi chúng tôi chỉ có chứng minh gian lận như một phương tiện để mở rộng khả năng tính toán, Plasma đã rất hạn chế trong việc thực hiện an toàn, nhưng với sự phổ biến của SNARKs, kiến trúc Plasma trở nên khả thi hơn cho nhiều trường hợp sử dụng rộng rãi hơn bao giờ hết.
Tiến triển hơn nữa trong việc lấy mẫu tính khả dụng dữ liệu
Chúng ta đang giải quyết vấn đề gì?
Vào ngày 13 tháng 3 năm 2024, khi bản nâng cấp Dencun được ra mắt, mỗi slot của chuỗi khối Ethereum trong vòng 12 giây sẽ có 3 blob khoảng 125 kB, hoặc băng thông dữ liệu khả dụng cho mỗi slot khoảng 375 kB. Giả sử dữ liệu giao dịch được phát hành trực tiếp trên chuỗi, thì chuyển khoản ERC20 khoảng 180 byte, do đó TPS tối đa của Rollup trên Ethereum là: 375000 / 12 / 180 = 173.6 TPS
Nếu chúng ta cộng thêm giá trị tối đa lý thuyết của calldata Ethereum(: mỗi slot 30 triệu Gas / mỗi byte 16 gas = mỗi slot 1,875,000 byte), thì sẽ trở thành 607 TPS. Sử dụng PeerDAS, số lượng blob có thể tăng lên 8-16, điều này sẽ cung cấp cho calldata 463-926 TPS.
Đây là một cải tiến lớn đối với Ethereum L1, nhưng vẫn chưa đủ. Chúng tôi muốn có nhiều khả năng mở rộng hơn. Mục tiêu trung hạn của chúng tôi là 16 MB cho mỗi slot, nếu kết hợp với cải tiến nén dữ liệu Rollup, sẽ mang lại ~58000 TPS.
Nó là gì? Nó hoạt động như thế nào?
PeerDAS là một triển khai tương đối đơn giản của "1D sampling". Trong Ethereum, mỗi blob là một đa thức bậc 4096 trên trường số nguyên tố 253位素数域(prime field). Chúng tôi phát sóng các shares của đa thức, trong đó mỗi shares chứa 16 giá trị đánh giá từ 16 tọa độ liền kề trong tổng số 8192 tọa độ. Trong 8192 giá trị đánh giá này, bất kỳ 4096 giá trị nào( theo các tham số hiện tại được đề xuất: bất kỳ 64 trong 128 mẫu khả thi) đều có thể phục hồi blob.
Nguyên lý hoạt động của PeerDAS là cho phép mỗi khách hàng lắng nghe một số lượng nhỏ subnet, trong đó subnet thứ i phát sóng mẫu thứ i của bất kỳ blob nào, và yêu cầu các đối tác trong mạng p2p toàn cầu ( ai sẽ lắng nghe các subnet khác ) để yêu cầu blob trên các subnet khác mà nó cần. Phiên bản bảo thủ hơn SubnetDAS chỉ sử dụng cơ chế subnet mà không có các yêu cầu bổ sung từ lớp đối tác. Đề xuất hiện tại là cho phép các nút tham gia chứng minh cổ phần sử dụng SubnetDAS, trong khi các nút khác ( tức là khách hàng ) sử dụng PeerDAS.
Về lý thuyết, chúng ta có thể mở rộng quy mô của "1D sampling" khá lớn: nếu chúng ta tăng số lượng blob tối đa lên 256( với mục tiêu là 128), thì chúng ta có thể đạt được mục tiêu 16MB, trong khi sampling khả năng dữ liệu mỗi nút có 16 mẫu * 128 blob * mỗi blob mỗi mẫu 512 byte = băng thông dữ liệu 1 MB mỗi slot. Điều này chỉ vừa đủ trong phạm vi chịu đựng của chúng tôi: điều này khả thi, nhưng có nghĩa là khách hàng có băng thông hạn chế không thể sampling. Chúng ta có thể tối ưu hóa điều này ở một mức độ nào đó bằng cách giảm số lượng blob và tăng kích thước blob, nhưng điều này sẽ làm tăng chi phí tái tạo.
Do đó, chúng tôi cuối cùng muốn tiến xa hơn, thực hiện 2D sampling (2D sampling), phương pháp này không chỉ thực hiện lấy mẫu ngẫu nhiên trong blob mà còn thực hiện lấy mẫu ngẫu nhiên giữa các blob. Sử dụng thuộc tính tuyến tính của KZG cam kết, mở rộng tập hợp blob trong một khối bằng một tập hợp các blob ảo mới, những blob ảo này mã hóa thừa thông tin giống nhau.
Do đó, cuối cùng chúng tôi muốn tiến xa hơn, thực hiện mẫu 2D, không chỉ ngẫu nhiên trong blob mà còn giữa các blob. Tính chất tuyến tính của cam kết KZG được sử dụng để mở rộng tập hợp blob trong một khối, bao gồm danh sách blob ảo mới được mã hóa dư thừa cho cùng một thông tin.
Điều quan trọng là việc tính toán sự cam kết mở rộng không cần có blob, do đó phương án này về cơ bản là thân thiện với việc xây dựng khối phân phối. Các nút thực hiện việc xây dựng khối chỉ cần sở hữu sự cam kết KZG blob, và chúng có thể dựa vào mẫu khả năng dữ liệu (DAS) để xác minh khả năng có sẵn của khối dữ liệu. Mẫu khả năng dữ liệu một chiều (1D DAS) về cơ bản cũng thân thiện với việc xây dựng khối phân phối.
( còn cần làm gì? Còn có những sự cân nhắc nào?
Tiếp theo là hoàn thành việc triển khai và ra mắt PeerDAS. Sau đó, số lượng blob trên PeerDAS sẽ tăng lên liên tục, đồng thời theo dõi chặt chẽ mạng lưới và cải tiến phần mềm để đảm bảo an toàn, đây là một quá trình dần dần. Cùng lúc đó, chúng tôi hy vọng có nhiều nghiên cứu học thuật hơn để quy định PeerDAS và các phiên bản DAS khác cũng như tương tác của chúng với các vấn đề an toàn như quy tắc chọn nhánh.
Trong giai đoạn xa hơn trong tương lai, chúng ta cần làm nhiều việc hơn để xác định phiên bản lý tưởng của 2D DAS và chứng minh các thuộc tính an toàn của nó. Chúng tôi cũng hy vọng cuối cùng có thể chuyển từ KZG sang một giải pháp thay thế an toàn với lượng tử mà không cần thiết lập đáng tin cậy. Hiện tại, chúng tôi vẫn không rõ có những lựa chọn nào thân thiện với việc xây dựng khối phân tán. Ngay cả khi sử dụng công nghệ "brute force" tốn kém, tức là sử dụng STARK đệ quy để tạo ra các chứng minh tính hợp lệ cho việc tái tạo các hàng và cột, cũng không đủ để đáp ứng nhu cầu, bởi vì mặc dù về mặt kỹ thuật, kích thước của một STARK là O)log###n( * log(log)n(( giá trị băm) sử dụng STIR), nhưng thực tế STARK gần như lớn như toàn bộ blob.
Tôi nghĩ rằng con đường thực tế lâu dài là:
Xin lưu ý rằng, ngay cả khi chúng tôi quyết định mở rộng thực hiện trực tiếp trên lớp L1, lựa chọn này vẫn tồn tại. Điều này là do nếu lớp L1 phải xử lý một lượng lớn TPS, khối L1 sẽ trở nên rất lớn, và khách hàng sẽ muốn có một phương pháp hiệu quả để xác minh tính chính xác của chúng, do đó chúng tôi sẽ phải sử dụng công nghệ giống như Rollup( như ZK-EVM và DAS) trên lớp L1.
( Làm thế nào để tương tác với các phần khác của lộ trình?
Nếu thực hiện nén dữ liệu, nhu cầu về 2D DAS sẽ giảm bớt, hoặc ít nhất sẽ bị trì hoãn, nếu Plasma được sử dụng rộng rãi, thì nhu cầu sẽ giảm thêm. DAS cũng đặt ra thách thức cho các giao thức và cơ chế xây dựng khối phân phối: mặc dù DAS lý thuyết là thân thiện với việc tái tạo phân phối, nhưng thực tế điều này cần được kết hợp với các đề xuất danh sách bao gồm gói và cơ chế lựa chọn phân nhánh xung quanh.
![Vitalik bài viết mới: Tương lai có thể của Ethereum, The Surge])https://img-cdn.gateio.im/webp-social/moments-c585e5f955b6646c513eaecf452b0597.webp###
Nén dữ liệu
( Chúng tôi đang giải quyết vấn đề gì?
Mỗi giao dịch trong Rollup sẽ chiếm một lượng lớn không gian dữ liệu trên chuỗi: việc chuyển ERC20 khoảng 180 byte. Ngay cả khi có mẫu khả dụng dữ liệu lý tưởng, điều này cũng hạn chế khả năng mở rộng của giao thức Layer. Mỗi slot 16 MB, ta có:
16000000 / 12 / 180 = 7407 TPS
Nếu chúng ta không chỉ giải quyết vấn đề của tử số mà còn giải quyết vấn đề của mẫu số, để mỗi giao dịch trong Rollup chiếm ít byte hơn trên chuỗi, thì điều gì sẽ xảy ra?
) Nó là gì, nó hoạt động như thế nào?
Theo tôi, lời giải thích tốt nhất là bức tranh này cách đây hai năm:
![Vitalik bài viết mới: Tương lai có thể của Ethereum, The Surge]###https://img-cdn.gateio.im/webp-social/moments-a04daca8af5d6af3c06b77a97aae477d.webp###
Trong nén byte không, sử dụng hai byte để thay thế mỗi chuỗi byte không dài, biểu thị số lượng byte không. Hơn nữa, chúng tôi đã tận dụng các thuộc tính cụ thể của giao dịch:
Ký tên tổng hợp: Chúng tôi đã chuyển từ ký tên ECDSA sang ký tên BLS, đặc điểm của ký tên BLS là nhiều chữ ký có thể được kết hợp thành một chữ ký duy nhất, chữ ký này có thể chứng minh tất cả các nguyên bản.