THE MERGE

本日主題

為什麼需要區塊鏈?

一些技術演進

ETH: THE MERGE

為什麼需要區塊鏈?

ex: 

  1. 治安,法規
  2. 法幣、證券
  3. 資訊

首先先想想那些你鮮少質疑過的事情

為什麼你對這些事物的運作理所當然,是什麼確保了這層信任

----> 可靠第三方的擔保

-----> 你相信這個第三方

這個世界的運作是建立在『信任』的基礎之上的,若是每件事情都需要懷疑,就很累

但你總會有懷疑的時候吧?

且越多轉手的資訊越不容易查證

區塊鏈正是透過技術上一目瞭然各種資訊的傳遞,你也能確保鍊上資訊不被篡改,且也少了中間人的介入

信任比較

可靠權威

就相信他

區塊鏈

透過多數節點的驗證,確保這個資訊沒有被篡改過

HOW

COST

??

交些錢給驗證節點,他們才會幫你驗證

鍊上的不可性至少證明了這筆資料是被這些驗證節點驗證是沒被竄改過的

現在感覺很多東西都在發展,例如

 NFT, Defi, X to earn.......

但浪潮過了,到底剛需是什麼?

現在的基礎建設撐得起這些需求嗎?

但這些是不能解決的問題嗎?

再來講一下感覺無關緊要的技術討論,

後面講 the merge 會再提到

一個簡單的服務的系統架構可能是這樣

front-end

App/Web

back-end

一個簡單的服務的系統架構可能是這樣

front-end

App/Web

back-end

Server

database

In Real World

如果使用量/資料量一直成長

 

除了根據情況設定 cache 或 rate - limit等等之類的

我們的 DB 也要跟著 upgrade(scaling)

除了就把規格升好升滿的 vertical scaling

除了就把規格升好升滿的 vertical scaling

Server

Master DB

Replica DB

一個 DB 不夠就團結力量大

如果使用量/資料量一直成長

 

除了根據情況設定 cache 或 rate - limit等等之類的

我們的 DB 也要跟著 upgrade(scaling)

Server

Master DB

Replica DB

一個 DB 不夠就團結力量大

除了就把規格升好升滿的 vertical scaling

Replica DB

Replica DB

Replica DB

...

 Single Point of Failure 

如果使用量/資料量一直成長

 

除了根據情況設定 cache 或 rate - limit等等之類的

我們的 DB 也要跟著 upgrade(scaling)

Server

Shard_0 DB

或是因為需求使然需要多台 DB 

除了就把規格升好升滿的 vertical scaling

 Sharding

Shard_1 DB

Shard_2 DB

user_id % 3

如果使用量/資料量一直成長

 

除了根據情況設定 cache 或 rate - limit等等之類的

我們的 DB 也要跟著 upgrade(scaling)

這些 nodes 傳遞的資訊是正確的

我們這邊都是從多個資料庫去討論,

但這邊都有一個假設

今天假設我們使用的 node 我們不能確保他傳遞的資訊,我們就需要一個容錯機制去確保資料的傳遞可用性

拜占庭容錯

簡單來說就是以少數服從多數的機制,令節點之間的溝通有一個共識

而比特幣的中本聰協議,就是一個比經典的BFT(少數服從多數)更進一步的解決方案,透過將信息重度加密,再要解密者以極高難度的蠻力去計算數學題,從而獲得答案。這項驗證方式要大量高難度數學計算,所以又名為「工作證明」(Proof-of-work, PoW)

可以說,區塊鏈之間的溝通就是以共識為基礎建立出來的

ETH the Merge

主要資料來源 -> Matrix DAO 的報告

除了 POW->POS

還有為了將來的 sharding 做準備

目的?

1. 環保大使,人人有責(POW -> POS)

2. 現在交易速度過慢,將來擴大經營肯定不夠用

15tps

3. 安全性/去中心化危機

節能(POW -> POS)

  • 從礦機的算力改成質押以太幣(根據質押數量、天數......決定記帳權機率)
  • 算力減少,電力消耗減少
    -> 就數據來看,當前以太坊的平均電力年耗則來到了 5.31 吉瓦 ( GW ),相當於一個中型國家
    的年用電規模
  • 預計可以大幅增加51%攻擊的難度, 因為掌握全網51%的以太幣比掌握全網51%的算力還要困難

 

交易速度過慢

交易速度過慢Gas Fee 競價

一直是被以太坊用戶所詬病的地方

但這點其實可以和

『去中心化、安全性』一起討論

這也是為什麼在 alt 1 如雨春筍冒出來的時候,

以太坊還是堅決找尋更好的方案解決

但這點其實可以和

『去中心化、安全性』一起討論

這也是為什麼在 alt 1 如雨春筍冒出來的時候,

以太坊還是堅決找尋更好的方案解決

先講要解決 tps 的論述有分兩種

單片區塊鏈 ( Monolithic ): 其信仰者認為區塊鏈擴容的未來來自一條效能超強的L1單片區塊鏈的表對象有 Solana、幣安智能鏈等強勢L1。

模塊區塊鏈 ( Modular ): 其信仰者認為區塊鏈擴容的未來來自多條區塊鏈的專業分工。模塊區塊鏈延伸出來方案非常多,包含狀態通道、ZK-rollup、OP-rollup、側鏈、分片等等概念。

BSC, Solana 等 alt L1 有哪些被質疑的問題?

----> 去中心化

----> 成為 validator 的門檻太高

https://docs.solana.com/running-validator/validator-reqs

BSC, Solana 等 alt L1 有哪些被質疑的問題?

----> 去中心化

----> 成為 validator 的門檻太高

https://docs.solana.com/running-validator/validator-reqs

以太坊團隊有個擴容的原則,

就是『必須在不犧牲去中心化與安全性的前提下,發展擴容方案

這也體現了以太坊團隊的中心思想

安全性

PoW 改成 PoS,這預計可以大幅增加51%攻擊的難度,
因為掌握全網51%的以太幣比掌握全網51%的算力還要困難。

就當前以太幣礦機的分佈格局來看,第一名的 EtherMine 公司擁有46%的哈希算力,第二名的 NanoPool 有20%的哈
希算力,若這兩間礦場合作的話就能直接達成「51%攻擊」,這代表當前以太坊是非常中心化與集權的,這令以太坊
社區十分擔憂。

技術面

以太坊2.0的具體擴容方案其實「仍在發展的過程中」,因此方案上有經過多次迭代。

 

原本的主線擴容方案是在2021年提出 sharding1.0,但後來被今年提出的 danksharding 取代,而目前最新的方案是5月時提出的混合方案(結合 sharding1.0 和 danksharding ),但該方案的細節也還在發展當中。

https://ethereum-magicians.org/t/a-rollup-centric-ethereum-roadmap/4698

Danksharding

如果說sharding 1.0的方式算是採用並行處理、分工合作的方式去做擴容(複雜度極高),DankSharding 則是用完全不一樣的手段去完成擴容。

核心思想是:『對數據做分片』與『數據暫存』

 

數據暫存

  • 以太坊的核心地位為共識層,共識層的責任是確保檔下狀態的正確性
  • 交易數據只存『一個月』,過期就刪除
  • 新的儲存格式: blob

數據分片

  • 對數據本身做分片,每個節點都只負責處理部分的數據碎片(像 BitTorrent)
  • 各節點只有少量的數據碎片,要如何確實地完成對區塊鏈數據的驗證?
    ---->『數據可用性抽驗』

少量抽驗但達成極低誤差空間

Reed-Solomon

KZG 承諾算法

Data Availability Sampling

  • 增加一些冗余資料,但在資料有損失時(以圖為例, 50%)時可以重建
  • 攻擊者必須隱藏超過 50% 的區塊才能成功欺騙 DAS 節點,使其認為數據在不可用時可用
  • 假設抽樣 30次,那機率就會是 (1/2)^30
    ---->
    (1/2)^30是個極小的數字,在實務上可被接受的夠低機率

KZG 承諾算法

為了確保冗餘這個過程沒有被動過手腳,資料集會帶一個KZG root,當你收到資料時就可以對這個 root 做驗證。

 

我的理解其實就像是 hash 的變相手法,你的冗余數據就是對你的原始數據作 hash。

為了確保冗餘這個過程沒有被動過手腳,資料集會帶一個KZG root,當你收到資料時就可以對這個 root 做驗證。

 

我的理解其實就像是 hash 的變相手法,你的冗余數據就是對你的原始數據作 hash。

KZG 承諾算法

Proposer/Builder Separation

將打包者與出塊者分開

 

  • 超級節點來製作區塊
  • 去中心化的節點安排交易順序

Proposer/Builder Separation

將打包者與出塊者分開

we get a world where, block production is centralized, block validation is trustless and highly decentralized, and censorship is still prevented

Vitalik(2021) `Endgame`
  1. 首先系統會按 PoS 算法隨指派一個節點當出塊者
  2. 該出塊者會定義下個區塊要包含的交易數據,然後將其整理成一個交易列表 ( crList ) 廣播出去
  3. 各打包者接收到這個交易列表 ( crList ) 後,會發動他們的超級電腦來製作區塊的「區塊體(區塊格式裡的實際交易內容)」,製作完後會廣播出去
  4. 出塊者會從多個打包者製作的區塊體中挑出一個,然後根據該區塊體製作「區塊頭(區塊格式裡的摘要資訊)」
  5. 最終雙方共同產出一個完整的區塊(區塊頭+區塊體=區塊)

區塊頭

區塊體

crList

一個區塊涵蓋的交易數據範圍,

是由去中心化的出塊者製作的 crList 所決定的,
而打包者只能照著 crList 內的交易數據來打包出來的區,換言之打包者已經難以發動MEV。

MEV: 出塊者可以先審查一個區塊的交易數據,然後再安插自己的交易到該區塊中插隊,為自己謀取利益。

詳細說明了何謂 MEV,以及在不同階段(中心化市場、鍊上、 eth merge 後)是哪些角色從中套利

技術總結

犧牲「數據保存性」換取「效能」。

  • The Merge
  • The Surge
  • The Verge  
  • The Purge
  • The Splurge

其實此次升級有五階段

  • The Merge
  • The Surge
  • The Verge  
  • The Purge
  • The Splurge

現在不過才在 phase 1

目前 The Merge 後除了 POW 換成 POS 比較節能外,沒有什麼其他改變

 

TPS 暫時都還不會提升,要陸續等 danksharding, L2 rollup 等方案一一實踐

那升級提出至今已過了八年之久,

為啥這麼久?

  • 牛熊交替,要備齊資源、技術方案、執行力都是一個艱辛的過程
  • 要將目前這些龐大的交易數據滑順轉移且過程不能停機是一件不容易的事(反觀 solana

死機會怎樣,再幫大家複習一次

代幣面


merge 前後比較:

  • merge 前,增發量14500ETH/天,交易費燃燒3000ETH/天,淨增加11500ETH/天
  • merge 後,增發量1800ETH/天,交易費燃燒3000ETH/天,淨減少1200ETH/天

日增量少90%

供給端影響

質押累積可能發生解鎖潮

信標鏈上 PoS 的 ETH 要等到 Shanghai upgrade 後才能提取出來,而在信標鏈上參與 PoS 質押的節點會越來越多,因
此可能會造成更新後出現超大型解鎖潮

供給端影響

需求端影響

新增質押收益

  • staking APY 7~8%
  • 以太坊在幣圈的信用,近「無風險收益」的獲利手段
  • 可能成為傳統大資本願意進場買入的誘因

需求端影響

基礎買盤相對增加

在 merge 前,每日 ETH 淨變化是增加11500顆,

若當天 ETH 價格要維持平衡,

那代表二級市場上要有11500*1300USD(假設ETH價值1300U)的買盤來承接

 

那我們假設 merge 後相應的買盤仍存在,

這時每日 ETH 淨變化是減少1200顆,

那同樣的11500*1300 USD 買盤進來的話,

相當於以太坊有很充分的買盤基礎存在。

這條路上可以看到為了追尋理想所以人們不斷嘗試、探索各種可能。面對效能、去中心化、安全性的突破,各種新穎的設計.......

 

這種追求的過程也令我心中油然敬佩

希望透過這次簡報,讓大家對以太坊 2.0 有更深刻地認識

區塊鏈這條路還長,但值得期待

QA

為什麼一開始就不用 POS?

-> 因為那時的時空背景下,POS 相對不成熟,而比特幣的 POW 已有個範本在

Ref

  • https://dailyclipper.net/dc/2022/06/06/318944/
  • https://drive.google.com/file/d/10jE80tpKZjkCkZaevLn38AOGfOaemGb3/view
  • https://vitalik.ca/general/2021/12/06/endgame.html

Ethereum: THE MERGE

By Jay Chou

Ethereum: THE MERGE

  • 191