導航:首頁 > 比特幣區 > 對比特幣礦池dos攻擊

對比特幣礦池dos攻擊

發布時間:2024-12-18 14:20:16

區塊鏈同步需要多少內存(區塊鏈數據同步)

【區塊鏈】什麼是區塊鏈錢包?

提起區塊鏈錢包我們就不得不談到比特幣錢包(Bitcoincore),其他區塊鏈錢包大多都是仿照比特幣錢包做的,比特幣錢包是我們管理比特幣的工具。

比特幣錢包里存儲著我們的比特幣信息,包括比特幣地址(類似於你的銀行卡賬號)、私鑰(類似於你的銀行卡密碼),比特幣錢包可以存儲多個比特幣地址以及每個比特幣地址所對應的獨立私鑰。

比特幣錢包的核心功能就是保護你的私鑰,如果錢包丟失你將可能永遠失去你的比特幣。

區塊鏈錢包有很多種形態。

根據用戶是否掌握私鑰可將錢包分為:鏈上錢包(onchainwallet)和託管錢包(offchainwallet)。他們之間有如下兩點區別:

關於鏈上錢包(onchainwallet)我們又可根據私鑰存儲是否聯網劃分為冷錢包和熱錢包;冷錢包和熱錢包我們也稱之為離線錢包和在線錢包。

通常所說的硬體錢包就屬於冷錢包(一般准備長期持有的大額數字貨幣建議使用冷錢包存放),除了這種專業的設備我們還可以使用離線的電腦、手機、紙錢包、腦錢包等作為冷錢包存儲我們的數字資產。

冷錢包最大優點就是安全,因為它不觸網的屬性可以大大降低黑客攻擊的可能性;唯一需要擔心就是不要把自己的冷錢包弄丟即可。

與冷錢包相對應的就是熱錢包,熱錢包是需要聯網的;熱錢包又可分為桌面錢包、手機錢包和網頁錢包。

熱錢包往往是在線錢包的形式,因此在使用熱錢包時最好在不同平台設置不同密碼,且開啟二次認證確保自己的資產安全。

根據區塊鏈數據的維護方式和錢包的去中心化程度又可將錢包分為全節點錢包、輕節點錢包、中心化錢包。

全節點錢包大部分都屬於桌面錢包,其中的代表有Bitcoin-Core核心錢包、Geth、Parity等等,此類錢包需要同步所有區塊鏈數據,佔用很大的內存,但可以實現完全去中心化。

而手機錢包和網頁錢包大部分屬於輕節點錢包,輕錢包依賴區塊鏈網路中的其他全節點,僅同步與自己相關的交易數據,基本可以實現去中心化。

中心化錢包不依賴區塊鏈網路,所有的數據均從自己的中心化伺服器中獲取;但是交易效率很高,可以實時到賬,你在交易平台中注冊的賬號就是中心化錢包。

記住在區塊鏈的世界裡誰掌握私鑰誰才是數字資產真正的主人。

全局節點什麼意思

全節點是是擁有完整區塊鏈賬本的節點,全節點需要佔用內存同步所有的區塊鏈數據,能夠獨立校驗區塊鏈上的所有交易並實時更新數據,主要負責區塊鏈的交易的廣播和驗證。

請問,大學生區塊鏈本科專業,電腦需要什麼樣的配置夠用?

學生的電腦普通電腦配置就夠用了,三四千塊錢的台式機用起來就不錯

什麼是區塊鏈擴容?

普通用戶能夠運行節點對於區塊鏈的去中心化至關重要

想像一下凌晨兩點多,你接到了一個緊急呼叫,來自世界另一端幫你運行礦池(質押池)的人。從大約14分鍾前開始,你的池子和其他幾個人從鏈中分離了出來,而網路仍然維持著79%的算力。根據你的節點,多數鏈的區塊是無效的。這時出現了余額錯誤:區塊似乎錯誤地將450萬枚額外代幣分配給了一個未知地址。

一小時後,你和其他兩個同樣遭遇意外的小礦池參與者、一些區塊瀏覽器和交易所方在一個聊天室中,看見有人貼出了一條推特的鏈接,開頭寫著「宣布新的鏈上可持續協議開發基金」。

到了早上,相關討論廣泛散布在推特以及一個不審查內容的社區論壇上。但那時450萬枚代幣中的很大一部分已經在鏈上轉換為其他資產,並且進行了數十億美元的defi交易。79%的共識節點,以及所有主要的區塊鏈瀏覽器和輕錢包的端點都遵循了這條新鏈。也許新的開發者基金將為某些開發提供資金,或者也許所有這些都被領先的礦池、交易所及其裙帶所吞並。但是無論結果如何,該基金實際上都成為了既成事實,普通用戶無法反抗。

或許還有這么一部主題電影。或許會由MolochDAO或其他組織進行資助。

這種情形會發生在你的區塊鏈中嗎?你所在區塊鏈社區的精英,包括礦池、區塊瀏覽器和託管節點,可能協調得很好,他們很可能都在同一個telegram頻道和微信群中。如果他們真的想出於利益突然對協議規則進行修改,那麼他們可能具備這種能力。以太坊區塊鏈在十小時內完全解決了共識失敗,如果是只有一個客戶端實現的區塊鏈,並且只需要將代碼更改部署到幾十個節點,那麼可以更快地協調客戶端代碼的更改。能夠抵禦這種社會性協作攻擊的唯一可靠方式是「被動防禦」,而這種力量來自去一個中心化的群體:用戶。

想像一下,如果用戶運行區塊鏈的驗證節點(無論是直接驗證還是其他間接技術),並自動拒絕違反協議規則的區塊,即使超過90%的礦工或質押者支持這些區塊,故事會如何發展。

如果每個用戶都運行一個驗證節點,那麼攻擊很快就會失敗:有些礦池和交易所會進行分叉,並且在整個過程中看起來很愚蠢。但是即使只有一些用戶運行驗證節點,攻擊者也無法大獲全勝。相反,攻擊會導致混亂,不同用戶會看到不同的區塊鏈版本。最壞情況下,隨之而來的市場恐慌和可能持續的鏈分叉將大幅減少攻擊者的利潤。對如此曠日持久的沖突進行應對的想法本身就可以阻止大多數攻擊。

Hasu關於這一點的看法:

「我們要明確一件事,我們之所以能夠抵禦惡意的協議更改,是因為擁有用戶驗證區塊鏈的文化,而不是因為PoW或PoS。」

假設你的社區有37個節點運行者,以及80000名被動監聽者,對簽名和區塊頭進行檢查,那麼攻擊者就獲勝了。如果每個人都運行節點的話,攻擊者就會失敗。我們不清楚針對協同攻擊的啟動群體免疫的確切閾值是多少,但有一點是絕對清楚的:好的節點越多,惡意的節點就越少,而且我們所需的數量肯定不止於幾百幾千個。

那麼全節點工作的上限是什麼?

為了使得有盡可能多的用戶能夠運行全節點,我們會將注意力集中在普通消費級硬體上。即使能夠輕松購買到專用硬體,這能夠降低一些全節點的門檻,但事實上對可擴展性的提升並不如我們想像的那般。

全節點處理大量交易的能力主要受限於三個方面:

算力:在保證安全的前提下,我們能劃分多少CPU來運行節點?

帶寬:基於當前的網路連接,一個區塊能包含多少位元組?

存儲:我們能要求用戶使用多大的空間來進行存儲?此外,其讀取速度應該達到多少?(即,HDD足夠嗎?還是說我們需要SSD?)

許多使用「簡單」技術對區塊鏈進行大幅擴容的錯誤看法都源自於對這些數字過於樂觀的估計。我們可以依次來討論這三個因素:

算力

錯誤答案:100%的CPU應該用於區塊驗證

正確答案:約5-10%的CPU可以用於區塊驗證

限制之所以這么低的四個主要原因如下:

我們需要一個安全邊界來覆蓋DoS攻擊的可能性(攻擊者利用代碼弱點製造的交易需要比常規交易更長的處理時間)

節點需要在離線之後能夠與區塊鏈同步。如果我掉線一分鍾,那我應該要能夠在幾秒鍾之內完成同步

運行節點不應該很快地耗盡電池,也不應該拖慢其他應用的運行速度

節點也有其他非區塊生產的工作要進行,大多數是驗證以及對p2p網路中輸入的交易和請求做出響應

請注意,直到最近大多數針對「為什麼只需要5-10%?」這一點的解釋都側重於另一個不同的問題:因為PoW出塊時間不定,驗證區塊需要很長時間,會增加同時創建多個區塊的風險。這個問題有很多修復方法,例如BitcoinNG,或使用PoS權益證明。但這些並沒有解決其他四個問題,因此它們並沒有如許多人所料在可擴展性方面獲得巨大進展。

並行性也不是靈丹妙葯。通常,即使是看似單線程區塊鏈的客戶端也已經並行化了:簽名可以由一個線程驗證,而執行由其他線程完成,並且有一個單獨的線程在後台處理交易池邏輯。而且所有線程的使用率越接近100%,運行節點的能源消耗就越多,針對DoS的安全系數就越低。

帶寬

錯誤答案:如果沒2-3秒都產生10MB的區塊,那麼大多數用戶的網路都大於10MB/秒,他們當然都能處理這些區塊

正確答案:或許我們能在每12秒處理1-5MB的區塊,但這依然很難

如今,我們經常聽到關於互聯網連接可以提供多少帶寬的廣為傳播的統計數據:100Mbps甚至1Gbps的數字很常見。但是由於以下幾個原因,宣稱的帶寬與預期實際帶寬之間存在很大差異:

「Mbps」是指「每秒數百萬bits」;一個bit是一個位元組的1/8,因此我們需要將宣稱的bit數除以8以獲得位元組數。

網路運營商,就像其他公司一樣,經常編造謊言。

總是有多個應用使用同一個網路連接,所以節點無法獨占整個帶寬。

P2P網路不可避免地會引入開銷:節點通常最終會多次下載和重新上傳同一個塊(更不用說交易在被打包進區塊之前還要通過mempool進行廣播)。

當Starkware在2019年進行一項實驗時,他們在交易數據gas成本降低後首次發布了500kB的區塊,一些節點實際上無法處理這種大小的區塊。處理大區塊的能力已經並將持續得到改善。但是無論我們做什麼,我們仍然無法獲取以MB/秒為單位的平均帶寬,說服自己我們可以接受1秒的延遲,並且有能力處理那種大小的區塊。

存儲

錯誤答案:10TB

正確答案:512GB

正如大家可能猜到的,這里的主要論點與其他地方相同:理論與實踐之間的差異。理論上,我們可以在亞馬遜上購買8TB固態驅動(確實需要SSD或NVME;HDD對於區塊鏈狀態存儲來說太慢了)。實際上,我用來寫這篇博文的筆記本電腦有512GB,如果你讓人們去購買硬體,許多人就會變得懶惰(或者他們無法負擔800美元的8TBSSD)並使用中心化服務。即使可以將區塊鏈裝到某個存儲設備上,大量活動也可以快速地耗盡磁碟並迫使你購入新磁碟。

一群區塊鏈協議研究員對每個人的磁碟空間進行了調查。我知道樣本量很小,但仍然...

請點擊輸入圖片描述

此外,存儲大小決定了新節點能夠上線並開始參與網路所需的時間。現有節點必須存儲的任何數據都是新節點必須下載的數據。這個初始同步時間(和帶寬)也是用戶能夠運行節點的主要障礙。在寫這篇博文時,同步一個新的geth節點花了我大約15個小時。如果以太坊的使用量增加10倍,那麼同步一個新的geth節點將至少需要一周時間,而且更有可能導致節點的互聯網連接受到限制。這在攻擊期間更為重要,當用戶之前未運行節點時對攻擊做出成功響應需要用戶啟用新節點。

交互效應

此外,這三類成本之間存在交互效應。由於資料庫在內部使用樹結構來存儲和檢索數據,因此從資料庫中獲取數據的成本隨著資料庫大小的對數而增加。事實上,因為頂級(或前幾級)可以緩存在RAM中,所以磁碟訪問成本與資料庫大小成正比,是RAM中緩存數據大小的倍數。

不要從字面上理解這個圖,不同的資料庫以不同的方式工作,通常內存中的部分只是一個單獨(但很大)的層(參見leveldb中使用的LSM樹)。但基本原理是一樣的。

例如,如果緩存為4GB,並且我們假設資料庫的每一層比上一層大4倍,那麼以太坊當前的~64GB狀態將需要~2次訪問。但是如果狀態大小增加4倍到~256GB,那麼這將增加到~3次訪問。因此,gas上限增加4倍實際上可以轉化為區塊驗證時間增加約6倍。這種影響可能會更大:硬碟在已滿狀態下比空閑時需要花更長時間來讀寫。

這對以太坊來說意味著什麼?

現在在以太坊區塊鏈中,運行一個節點對許多用戶來說已經是一項挑戰,盡管至少使用常規硬體仍然是可能的(我寫這篇文章時剛剛在我的筆記本電腦上同步了一個節點!)。因此,我們即將遭遇瓶頸。核心開發者最關心的問題是存儲大小。因此,目前在解決計算和數據瓶頸方面的巨大努力,甚至對共識演算法的改變,都不太可能帶來gaslimit的大幅提升。即使解決了以太坊最大的DoS弱點,也只能將gaslimit提高20%。

對於存儲大小的問題,唯一解決方案是無狀態和狀態逾期。無狀態使得節點群能夠在不維護永久存儲的情況下進行驗證。狀態逾期會使最近未訪問過的狀態失活,用戶需要手動提供證明來更新。這兩條路徑已經研究了很長時間,並且已經開始了關於無狀態的概念驗證實現。這兩項改進相結合可以大大緩解這些擔憂,並為顯著提升gaslimit開辟空間。但即使在實施無狀態和狀態逾期之後,gaslimit也可能只會安全地提升約3倍,直到其他限制開始發揮作用。

另一個可能的中期解決方案使使用ZK-SNARKs來驗證交易。ZK-SNARKs能夠保證普通用戶無需個人存儲狀態或是驗證區塊,即使他們仍然需要下載區塊中的所有數據來抵禦數據不可用攻擊。另外,即使攻擊者不能強行提交無效區塊,但是如果運行一個共識節點的難度過高,依然會有協調審查攻擊的風險。因此,ZK-SNARKs不能無限地提升節點能力,但是仍然能夠對其進行大幅提升(或許是1-2個數量級)。一些區塊鏈在layer1上探索該形式,以太坊則通過layer2協議(也叫ZKrollups)來獲益,例如zksync,Loopring和Starknet。

分片之後又會如何?

分片從根本上解決了上述限制,因為它將區塊鏈上包含的數據與單個節點需要處理和存儲的數據解耦了。節點驗證區塊不是通過親自下載和執行,而是使用先進的數學和密碼學技術來間接驗證區塊。

因此,分片區塊鏈可以安全地擁有非分片區塊鏈無法實現的非常高水平的吞吐量。這確實需要大量的密碼學技術來有效替代樸素完整驗證,以拒絕無效區塊,但這是可以做到的:該理論已經具備了基礎,並且基於草案規范的概念驗證已經在進行中。

以太坊計劃採用二次方分片(quadraticsharding),其中總可擴展性受到以下事實的限制:節點必須能夠同時處理單個分片和信標鏈,而信標鏈必須為每個分片執行一些固定的管理工作。如果分片太大,節點就不能再處理單個分片,如果分片太多,節點就不能再處理信標鏈。這兩個約束的乘積構成了上限。

可以想像,通過三次方分片甚至指數分片,我們可以走得更遠。在這樣的設計中,數據可用性采樣肯定會變得更加復雜,但這是可以實現的。但以太坊並沒有超越二次方,原因在於,從交易分片到交易分片的分片所獲得的額外可擴展性收益實際上無法在其他風險程度可接受的前提下實現。

那麼這些風險是什麼呢?

最低用戶數量

可以想像,只要有一個用戶願意參與,非分片區塊鏈就可以運行。但分片區塊鏈並非如此:單個節點無法處理整條鏈,因此需要足夠的節點以共同處理區塊鏈。如果每個節點可以處理50TPS,而鏈可以處理10000TPS,那麼鏈至少需要200個節點才能存續。如果鏈在任何時候都少於200個節點,那可能會出現節點無法再保持同步,或者節點停止檢測無效區塊,或者還可能會發生許多其他壞事,具體取決於節點軟體的設置。

在實踐中,由於需要冗餘(包括數據可用性采樣),安全的最低數量比簡單的「鏈TPS除以節點TPS」高幾倍,對於上面的例子,我們將其設置位1000個節點。

如果分片區塊鏈的容量增加10倍,則最低用戶數也增加10倍。現在大家可能會問:為什麼我們不從較低的容量開始,當用戶很多時再增加,因為這是我們的實際需要,用戶數量回落再降低容量?

這里有幾個問題:

區塊鏈本身無法可靠地檢測到其上有多少唯一用戶,因此需要某種治理來檢測和設置分片數量。對容量限制的治理很容易成為分裂和沖突的根源。

如果許多用戶突然同時意外掉線怎麼辦?

增加啟動分叉所需的最低用戶數量,使得防禦惡意控制更加艱難。

最低用戶數為1,000,這幾乎可以說是沒問題的。另一方面,最低用戶數設為100萬,這肯定是不行。即使最低用戶數為10,000也可以說開始變得有風險。因此,似乎很難證明超過幾百個分片的分片區塊鏈是合理的。

歷史可檢索性

用戶真正珍視的區塊鏈重要屬性是永久性。當公司破產或是維護該生態系統不再產生利益時,存儲在伺服器上的數字資產將在10年內不再存在。而以太坊上的NFT是永久的。

是的,到2372年人們仍能夠下載並查閱你的加密貓。

但是一旦區塊鏈的容量過高,存儲所有這些數據就會變得更加困難,直到某時出現巨大風險,某些歷史數據最終將……沒人存儲。

要量化這種風險很容易。以區塊鏈的數據容量(MB/sec)為單位,乘以~30得到每年存儲的數據量(TB)。當前的分片計劃的數據容量約為1.3MB/秒,因此約為40TB/年。如果增加10倍,則為400TB/年。如果我們不僅希望可以訪問數據,而且是以一種便捷的方式,我們還需要元數據(例如解壓縮匯總交易),因此每年達到4PB,或十年後達到40PB。InternetArchive(互聯網檔案館)使用50PB。所以這可以說是分片區塊鏈的安全大小上限。

因此,看起來在這兩個維度上,以太坊分片設計實際上已經非常接近合理的最大安全值。常數可以增加一點,但不能增加太多。

結語

嘗試擴容區塊鏈的方法有兩種:基礎的技術改進和簡單地提升參數。首先,提升參數聽起來很有吸引力:如果您是在餐紙上進行數學運算,這就很容易讓自己相信消費級筆記本電腦每秒可以處理數千筆交易,不需要ZK-SNARK、rollups或分片。不幸的是,有很多微妙的理由可以解釋為什麼這種方法是有根本缺陷的。

運行區塊鏈節點的計算機無法使用100%的CPU來驗證區塊鏈;他們需要很大的安全邊際來抵抗意外的DoS攻擊,他們需要備用容量來執行諸如在內存池中處理交易之類的任務,並且用戶不希望在計算機上運行節點的時候無法同時用於任何其他應用。帶寬也會受限:10MB/s的連接並不意味著每秒可以處理10MB的區塊!也許每12秒才能處理1-5MB的塊。存儲也是一樣,提高運行節點的硬體要求並且限制專門的節點運行者並不是解決方案。對於去中心化的區塊鏈而言,普通用戶能夠運行節點並形成一種文化,即運行節點是一種普遍行為,這一點至關重要。

區塊鏈的核心技術是什麼?

簡單來說,區塊鏈是一個提供了拜占庭容錯、並保證了最終一致性的分布式資料庫;從數據結構上看,它是基於時間序列的鏈式數據塊結構;從節點拓撲上看,它所有的節點互為冗餘備份;從操作上看,它提供了基於密碼學的公私鑰管理體系來管理賬戶。

或許以上概念過於抽象,我來舉個例子,你就好理解了。

你可以想像有100台計算機分布在世界各地,這100台機器之間的網路是廣域網,並且,這100台機器的擁有者互相不信任。

那麼,我們採用什麼樣的演算法(共識機制)才能夠為它提供一個可信任的環境,並且使得:

節點之間的數據交換過程不可篡改,並且已生成的歷史記錄不可被篡改;

每個節點的數據會同步到最新數據,並且會驗證最新數據的有效性;

基於少數服從多數的原則,整體節點維護的數據可以客觀反映交換歷史。

區塊鏈就是為了解決上述問題而產生的技術方案。

二、區塊鏈的核心技術組成

無論是公鏈還是聯盟鏈,至少需要四個模塊組成:P2P網路協議、分布式一致性演算法(共識機制)、加密簽名演算法、賬戶與存儲模型。

1、P2P網路協議

P2P網路協議是所有區塊鏈的最底層模塊,負責交易數據的網路傳輸和廣播、節點發現和維護。

通常我們所用的都是比特幣P2P網路協議模塊,它遵循一定的交互原則。比如:初次連接到其他節點會被要求按照握手協議來確認狀態,在握手之後開始請求Peer節點的地址數據以及區塊數據。

這套P2P交互協議也具有自己的指令集合,指令體現在在消息頭(MessageHeader)的命令(command)域中,這些命令為上層提供了節點發現、節點獲取、區塊頭獲取、區塊獲取等功能,這些功能都是非常底層、非常基礎的功能。如果你想要深入了解,可以參考比特幣開發者指南中的PeerDiscovery的章節。

2、分布式一致性演算法

在經典分布式計算領域,我們有Raft和Paxos演算法家族代表的非拜占庭容錯演算法,以及具有拜占庭容錯特性的PBFT共識演算法。

如果從技術演化的角度來看,我們可以得出一個圖,其中,區塊鏈技術把原來的分布式演算法進行了經濟學上的拓展。

在圖中我們可以看到,計算機應用在最開始多為單點應用,高可用方便採用的是冷災備,後來發展到異地多活,這些異地多活可能採用的是負載均衡和路由技術,隨著分布式系統技術的發展,我們過渡到了Paxos和Raft為主的分布式系統。

而在區塊鏈領域,多採用PoW工作量證明演算法、PoS權益證明演算法,以及DPoS代理權益證明演算法,以上三種是業界主流的共識演算法,這些演算法與經典分布式一致性演算法不同的是,它們融入了經濟學博弈的概念,下面我分別簡單介紹這三種共識演算法。

PoW:通常是指在給定的約束下,求解一個特定難度的數學問題,誰解的速度快,誰就能獲得記賬權(出塊)權利。這個求解過程往往會轉換成計算問題,所以在比拼速度的情況下,也就變成了誰的計算方法更優,以及誰的設備性能更好。

PoS:這是一種股權證明機制,它的基本概念是你產生區塊的難度應該與你在網路里所佔的股權(所有權佔比)成比例,它實現的核心思路是:使用你所鎖定代幣的幣齡(CoinAge)以及一個小的工作量證明,去計算一個目標值,當滿足目標值時,你將可能獲取記賬權。

DPoS:簡單來理解就是將PoS共識演算法中的記賬者轉換為指定節點數組成的小圈子,而不是所有人都可以參與記賬。這個圈子可能是21個節點,也有可能是101個節點,這一點取決於設計,只有這個圈子中的節點才能獲得記賬權。這將會極大地提高系統的吞吐量,因為更少的節點也就意味著網路和節點的可控。

3、加密簽名演算法

在區塊鏈領域,應用得最多的是哈希演算法。哈希演算法具有抗碰撞性、原像不可逆、難題友好性等特徵。

其中,難題友好性正是眾多PoW幣種賴以存在的基礎,在比特幣中,SHA256演算法被用作工作量證明的計算方法,也就是我們所說的挖礦演算法。

而在萊特幣身上,我們也會看到Scrypt演算法,該演算法與SHA256不同的是,需要大內存支持。而在其他一些幣種身上,我們也能看到基於SHA3演算法的挖礦演算法。以太坊使用了Dagger-Hashimoto演算法的改良版本,並命名為Ethash,這是一個IO難解性的演算法。

當然,除了挖礦演算法,我們還會使用到RIPEMD160演算法,主要用於生成地址,眾多的比特幣衍生代碼中,絕大部分都採用了比特幣的地址設計。

除了地址,我們還會使用到最核心的,也是區塊鏈Token系統的基石:公私鑰密碼演算法。

在比特幣大類的代碼中,基本上使用的都是ECDSA。ECDSA是ECC與DSA的結合,整個簽名過程與DSA類似,所不一樣的是簽名中採取的演算法為ECC(橢圓曲線函數)。

從技術上看,我們先從生成私鑰開始,其次從私鑰生成公鑰,最後從公鑰生成地址,以上每一步都是不可逆過程,也就是說無法從地址推導出公鑰,從公鑰推導到私鑰。

4、賬戶與交易模型

從一開始的定義我們知道,僅從技術角度可以認為區塊鏈是一種分布式資料庫,那麼,多數區塊鏈到底使用了什麼類型的數

② 什麼是區塊鏈擴容

擴容,是當某個容器或承載物不足以支撐或承載現有事物需求時,我們通過擴大容器的容量或承載物的體積來滿足日益增長的需求,從而緩解當前容器或承載物所受壓力的一種手段。
在比特幣誕生之初比特幣創始人中本聰並沒有特意限制區塊的大小,區塊最大可以達到32MB,當時平均每個區塊大小為1~2KB。
時比特幣用戶少,交易量也沒有那麼大,並不會造成區塊擁堵,然而2013年至今隨著比特幣價格的直線上升,用戶越來越多因此造成比特幣網路擁堵,用戶交易費用上升的問題逐漸涌現出來。
到現在,比特幣區塊鏈上最高時有幾十萬筆交易積壓,比特幣的平均交易費用比 2010 年 9 月上漲了 376 倍,每秒 7 筆交易的處理速度已經明顯無法滿足用戶需求,比特幣社區開始探索如何給比特幣「擴容」。
通過修改比特幣底層代碼,從而達到提高交易處理能力的目的。
比特幣擴容本身發展和設計方案有兩種,即第一層和第二層擴容技術。
· 第一層擴容技術即改進區塊鏈自身,把區塊鏈自身變得更快、容量變得更大,總的來說就是改變區塊鏈共識部分的內容。
· 第二層擴容技術目的是把計算移到鏈下,即通過側鏈的技術加以解決問題。
擴容協議及結局
擴容協議一般需要礦工們的支持,大致可以分為修改區塊大小、軟分叉、硬分叉、隔離見證等方式。
以比特幣舉例:
比特幣現在分裂成為大區塊Bitcoin Cash(BCH)和隔離見證。隔離見證現在是市場上公認的比特幣,而大區塊幣被冠名為比特現金。可以預見的往後的發展方向,比特幣將會以鏈下交易為主。包括閃電網路、側鏈。這兩個新東西目前不成熟,但是被很多人寄予厚望的。
比特幣將會大量發展隔離見證交易,並在隔離見證的基礎上做更多的衍生技術。最有可能是以技術推動比特幣往前發展。
比特現金將會以鏈上交易為主,重點發展貨幣功能,以降低交易摩擦為主要方式,以獲利更廣泛的鏈上用戶量為主要發展方向。
鏈喬教育在線旗下學碩創新區塊鏈技術工作站是中國教育部學校規劃建設發展中心開展的「智慧學習工場2020-學碩創新工作站 」唯一獲準的「區塊鏈技術專業」試點工作站。專業站立足為學生提供多樣化成長路徑,推進專業學位研究生產學研結合培養模式改革,構建應用型、復合型人才培養體系。

③ 有什麼可以投資的虛擬貨幣

新一代比特幣-比特盛世誕生

大背景:區塊鏈技術的金融應用帶來極高投資價值

2018中國國際大數據產業博覽會26日在貴州省貴陽市開幕,會上指出我國未來會大力發展數字經濟,深入實施大數據和雲計算發展行動計劃,深入研究區塊鏈技術及應用。尤其在金融領域的落地應用,更是成為科技界和金融界共同關注的焦點。

1、區塊鏈的價值來源在於其能完美解決當下金融行業痛點:

當今資產證券化、保險、供應鏈金融、大宗商品交易、資產託管等多個金融場景中,由於參與主體眾多、信用評估代價高昂、中介機構結算效率低下等原因,傳統的金融服務手段難以有效解決行業長期存在的諸如信息不對稱、流程繁復冗餘、信息驗真成本高等核心痛點。

2、區塊鏈為什麼能解決上述痛點:

區塊鏈技術集成了分布式記賬、不可篡改、內置合約等多項基礎技術,構建了一種以更低成本建立信任的機制。基於區塊鏈技術的金融應用,可以實現所有市場參與人無差別獲取市場中所有交易信息和資產歸屬記錄的能力,有效解決了信息不對稱問題;智能合約嵌入減少了支付結算環節的出錯率,簡化了流程並提高效率;同時各參與方之間基於透明的信息和全新的信任機制無需再耗費人力、物力、財力去進行信息確認,這將大大降低各機構之間的信任成本進而降低金融服務價格和交易成本。

3、區塊鏈技術在金融領域的應用主要有以下方面:

① 數字貨幣

其中以比特幣最為出名。而在比特幣基礎上,又衍生出了大量其他種類的去中心化數字貨幣。如:比特盛世。

② 支付清算

與傳統支付體系相比,區塊鏈支付可以為交易雙方直接進行端到端支付,無需藉助銀行體系,在提高速度和降低成本方面能得到大幅的改善。

③ 數字票據

④ 銀行徵信管理:區塊鏈的優勢在於可依靠程序演算法自動記錄信用相關信息,並存儲在區塊鏈網路的每一台計算機上,信息透明、不可篡改、使用成本低。

⑤ 權益證明和交易所證券交易

歐美各大金融機構和交易所紛紛探索以區塊鏈技術為藍本打造下一代金融資產交易平台的應用研究。

4、區塊鏈發展前景

區塊鏈技術與金融領域結合的深度和廣度還遠未飽和,應用前景廣闊。未來發展區塊鏈技術以聯盟鏈為切入點將最具生命力,並對傳統金融行業痛點的改造產生重大效果和深遠影響。

響應區塊鏈的良好投資前景,國內企業阿里巴巴、京東、網路均已入局。以區塊鏈技術為依託的金融場景應用帶給我們安全與便利的同時,更會提供給我們更廣闊的投資空間。以比特幣為代表的數字貨幣的興起和價格暴漲(比特幣2009年剛上市時約人民幣2角錢,現今價格7300美元左右!)就是最好的證明,嗅覺敏銳的人已從中獲利頗豐。

新一代比特盛世幣的理念及技術實現

摘要:這是一款以中本聰所開發的比特幣為基礎,改進並添加了諸如雙層獎勵制網路—也稱為主節點網路,等多項新功能的加密數字貨幣。其中還包含為提高可互換性的匿名支付(比特盛世),和在不依賴中心權威下實現即時交易確認的即時支付功能對接(p2p商城)。

1. 介紹

2009年,中本聰提出比特幣的概念,自那以後,比特幣已迅速在主流應用和商業用途中傳播開來,成為首個吸引大量用戶的數字貨幣,是數字貨幣史上的里程碑。不過從完成交易的角度來看比特幣接收的情形,我們可以發現一個重要問題,就是比特幣區塊確認交易的時間過長,而傳統的支付公司已找出使買賣雙方實現比特幣交易零確認的解決方案,但這一解決方案通常是要在協議之外採用可信賴的第三方完成交易。

比特幣提供假名交易,實現發送者和接受者之間一對一交易的關系,並能永遠記錄全網發生過的交易。比特幣只提供低層次的隱私保護,這點在學術界眾所周知,盡管有此不足,許多人仍然相信區塊鏈記錄的轉賬歷史。

基於中本聰成果,比特盛世以保護隱私為要旨的加密數字貨幣。我們在比特幣概念的基礎上進行了一系列的改進,由此誕生出一個去中心化的和具備良好匿名性的加密數字貨幣,它支持防篡改的即時交易,又有能為比特盛世網路提供服務獎勵制的點對點次級網路。

2. 主節點網路

全節點是運行在 p2p 網路上的伺服器,讓小節點使用它們來接受來自全網的動態變化。這些全節點需要顯著的流量和要消耗大量成本的其它資源,由此在一段時間內會觀察到比特幣網路上的這些節點數量呈現穩步下降的趨勢,使區塊廣播的時間需要額外增加40秒。為解決這問題,提出了許多方案,例如引入微軟研究的新獎勵計劃和 Bitnodes激勵計劃。

圖6:挖礦獎勵模型

④ 以太坊區塊鏈大小多少(以太坊區塊高度是多少)

以太坊公鏈區塊高度

根據之前的消息,以太坊區塊高度現在調整高度到4730660!以太坊是一個全新開放的區塊鏈平台,它允許任何人在平台中建立和使用通過區塊鏈技術運行的去中心化應用。

就像比特幣一樣,以太坊不受任何人控制,也不歸任何人所有——它是一個開放源代碼項目,由全球范圍內的很多人共同創建。和比特幣協議有所不同的是,以太坊的設計十分靈活,極具適應性。在以太坊平台上創立新的應用十分簡便,隨著Homestead的發布,任何人都可以安全地使用該平台上的應用。

以太坊是可編程的區塊鏈。它並不是給用戶一系列預先設定好的操作,而是允許用戶按照自己的意願創建復雜的操作。這樣一來,它就可以作為多種類型去中心化區塊鏈應用的平台。

以太坊區塊鏈大小

與比特幣網路不同,以太坊不會明確地按內存限制每個區塊的大小,而是通過區塊GasLimit強制規定每個區塊的大小。

以太坊的區塊GasLimit設置有效的限制了一個區塊中可以打包的交易量。GasLimit參數由以太坊礦工集體決定,即通過投票的方式來動態地增加或降低GasLimit數值。

最近的一次投票是2019年下半年,礦工們群體投票同意將以太坊的區塊GasLimit由原來的800萬Gas單位提高至1000萬,使每個區塊相比之前區塊的大小增加了25%左右,這從理論上提高了以太坊網路的TPS。

什麼是區塊鏈擴容?

普通用戶能夠運行節點對於區塊鏈的去中心化至關重要

想像一下凌晨兩點多,你接到了一個緊急呼叫,來自世界另一端幫你運行礦池(質押池)的人。從大約14分鍾前開始,你的池子和其他幾個人從鏈中分離了出來,而網路仍然維持著79%的算力。根據你的節點,多數鏈的區塊是無效的。這時出現了余額錯誤:區塊似乎錯誤地將450萬枚額外代幣分配給了一個未知地址。

一小時後,你和其他兩個同樣遭遇意外的小礦池參與者、一些區塊瀏覽器和交易所方在一個聊天室中,看見有人貼出了一條推特的鏈接,開頭寫著「宣布新的鏈上可持續協議開發基金」。

到了早上,相關討論廣泛散布在推特以及一個不審查內容的社區論壇上。但那時450萬枚代幣中的很大一部分已經在鏈上轉換為其他資產,並且進行了數十億美元的defi交易。79%的共識節點,以及所有主要的區塊鏈瀏覽器和輕錢包的端點都遵循了這條新鏈。也許新的開發者基金將為某些開發提供資金,或者也許所有這些都被領先的礦池、交易所及其裙帶所吞並。但是無論結果如何,該基金實際上都成為了既成事實,普通用戶無法反抗。

或許還有這么一部主題電影。或許會由MolochDAO或其他組織進行資助。

這種情形會發生在你的區塊鏈中嗎?你所在區塊鏈社區的精英,包括礦池、區塊瀏覽器和託管節點,可能協調得很好,他們很可能都在同一個telegram頻道和微信群中。如果他們真的想出於利益突然對協議規則進行修改,那麼他們可能具備這種能力。以太坊區塊鏈在十小時內完全解決了共識失敗,如果是只有一個客戶端實現的區塊鏈,並且只需要將代碼更改部署到幾十個節點,那麼可以更快地協調客戶端代碼的更改。能夠抵禦這種社會性協作攻擊的唯一可靠方式是「被動防禦」,而這種力量來自去一個中心化的群體:用戶。

想像一下,如果用戶運行區塊鏈的驗證節點(無論是直接驗證還是其他間接技術),並自動拒絕違反協議規則的區塊,即使超過90%的礦工或質押者支持這些區塊,故事會如何發展。

如果每個用戶都運行一個驗證節點,那麼攻擊很快就會失敗:有些礦池和交易所會進行分叉,並且在整個過程中看起來很愚蠢。但是即使只有一些用戶運行驗證節點,攻擊者也無法大獲全勝。相反,攻擊會導致混亂,不同用戶會看到不同的區塊鏈版本。最壞情況下,隨之而來的市場恐慌和可能持續的鏈分叉將大幅減少攻擊者的利潤。對如此曠日持久的沖突進行應對的想法本身就可以阻止大多數攻擊。

Hasu關於這一點的看法:

「我們要明確一件事,我們之所以能夠抵禦惡意的協議更改,是因為擁有用戶驗證區塊鏈的文化,而不是因為PoW或PoS。」

假設你的社區有37個節點運行者,以及80000名被動監聽者,對簽名和區塊頭進行檢查,那麼攻擊者就獲勝了。如果每個人都運行節點的話,攻擊者就會失敗。我們不清楚針對協同攻擊的啟動群體免疫的確切閾值是多少,但有一點是絕對清楚的:好的節點越多,惡意的節點就越少,而且我們所需的數量肯定不止於幾百幾千個。

那麼全節點工作的上限是什麼?

為了使得有盡可能多的用戶能夠運行全節點,我們會將注意力集中在普通消費級硬體上。即使能夠輕松購買到專用硬體,這能夠降低一些全節點的門檻,但事實上對可擴展性的提升並不如我們想像的那般。

全節點處理大量交易的能力主要受限於三個方面:

算力:在保證安全的前提下,我們能劃分多少CPU來運行節點?

帶寬:基於當前的網路連接,一個區塊能包含多少位元組?

存儲:我們能要求用戶使用多大的空間來進行存儲?此外,其讀取速度應該達到多少?(即,HDD足夠嗎?還是說我們需要SSD?)

許多使用「簡單」技術對區塊鏈進行大幅擴容的錯誤看法都源自於對這些數字過於樂觀的估計。我們可以依次來討論這三個因素:

算力

錯誤答案:100%的CPU應該用於區塊驗證

正確答案:約5-10%的CPU可以用於區塊驗證

限制之所以這么低的四個主要原因如下:

我們需要一個安全邊界來覆蓋DoS攻擊的可能性(攻擊者利用代碼弱點製造的交易需要比常規交易更長的處理時間)

節點需要在離線之後能夠與區塊鏈同步。如果我掉線一分鍾,那我應該要能夠在幾秒鍾之內完成同步

運行節點不應該很快地耗盡電池,也不應該拖慢其他應用的運行速度

節點也有其他非區塊生產的工作要進行,大多數是驗證以及對p2p網路中輸入的交易和請求做出響應

請注意,直到最近大多數針對「為什麼只需要5-10%?」這一點的解釋都側重於另一個不同的問題:因為PoW出塊時間不定,驗證區塊需要很長時間,會增加同時創建多個區塊的風險。這個問題有很多修復方法,例如BitcoinNG,或使用PoS權益證明。但這些並沒有解決其他四個問題,因此它們並沒有如許多人所料在可擴展性方面獲得巨大進展。

並行性也不是靈丹妙葯。通常,即使是看似單線程區塊鏈的客戶端也已經並行化了:簽名可以由一個線程驗證,而執行由其他線程完成,並且有一個單獨的線程在後台處理交易池邏輯。而且所有線程的使用率越接近100%,運行節點的能源消耗就越多,針對DoS的安全系數就越低。

帶寬

錯誤答案:如果沒2-3秒都產生10MB的區塊,那麼大多數用戶的網路都大於10MB/秒,他們當然都能處理這些區塊

正確答案:或許我們能在每12秒處理1-5MB的區塊,但這依然很難

如今,我們經常聽到關於互聯網連接可以提供多少帶寬的廣為傳播的統計數據:100Mbps甚至1Gbps的數字很常見。但是由於以下幾個原因,宣稱的帶寬與預期實際帶寬之間存在很大差異:

「Mbps」是指「每秒數百萬bits」;一個bit是一個位元組的1/8,因此我們需要將宣稱的bit數除以8以獲得位元組數。

網路運營商,就像其他公司一樣,經常編造謊言。

總是有多個應用使用同一個網路連接,所以節點無法獨占整個帶寬。

P2P網路不可避免地會引入開銷:節點通常最終會多次下載和重新上傳同一個塊(更不用說交易在被打包進區塊之前還要通過mempool進行廣播)。

當Starkware在2019年進行一項實驗時,他們在交易數據gas成本降低後首次發布了500kB的區塊,一些節點實際上無法處理這種大小的區塊。處理大區塊的能力已經並將持續得到改善。但是無論我們做什麼,我們仍然無法獲取以MB/秒為單位的平均帶寬,說服自己我們可以接受1秒的延遲,並且有能力處理那種大小的區塊。

存儲

錯誤答案:10TB

正確答案:512GB

正如大家可能猜到的,這里的主要論點與其他地方相同:理論與實踐之間的差異。理論上,我們可以在亞馬遜上購買8TB固態驅動(確實需要SSD或NVME;HDD對於區塊鏈狀態存儲來說太慢了)。實際上,我用來寫這篇博文的筆記本電腦有512GB,如果你讓人們去購買硬體,許多人就會變得懶惰(或者他們無法負擔800美元的8TBSSD)並使用中心化服務。即使可以將區塊鏈裝到某個存儲設備上,大量活動也可以快速地耗盡磁碟並迫使你購入新磁碟。

一群區塊鏈協議研究員對每個人的磁碟空間進行了調查。我知道樣本量很小,但仍然...

請點擊輸入圖片描述

此外,存儲大小決定了新節點能夠上線並開始參與網路所需的時間。現有節點必須存儲的任何數據都是新節點必須下載的數據。這個初始同步時間(和帶寬)也是用戶能夠運行節點的主要障礙。在寫這篇博文時,同步一個新的geth節點花了我大約15個小時。如果以太坊的使用量增加10倍,那麼同步一個新的geth節點將至少需要一周時間,而且更有可能導致節點的互聯網連接受到限制。這在攻擊期間更為重要,當用戶之前未運行節點時對攻擊做出成功響應需要用戶啟用新節點。

交互效應

此外,這三類成本之間存在交互效應。由於資料庫在內部使用樹結構來存儲和檢索數據,因此從資料庫中獲取數據的成本隨著資料庫大小的對數而增加。事實上,因為頂級(或前幾級)可以緩存在RAM中,所以磁碟訪問成本與資料庫大小成正比,是RAM中緩存數據大小的倍數。

不要從字面上理解這個圖,不同的資料庫以不同的方式工作,通常內存中的部分只是一個單獨(但很大)的層(參見leveldb中使用的LSM樹)。但基本原理是一樣的。

例如,如果緩存為4GB,並且我們假設資料庫的每一層比上一層大4倍,那麼以太坊當前的~64GB狀態將需要~2次訪問。但是如果狀態大小增加4倍到~256GB,那麼這將增加到~3次訪問。因此,gas上限增加4倍實際上可以轉化為區塊驗證時間增加約6倍。這種影響可能會更大:硬碟在已滿狀態下比空閑時需要花更長時間來讀寫。

這對以太坊來說意味著什麼?

現在在以太坊區塊鏈中,運行一個節點對許多用戶來說已經是一項挑戰,盡管至少使用常規硬體仍然是可能的(我寫這篇文章時剛剛在我的筆記本電腦上同步了一個節點!)。因此,我們即將遭遇瓶頸。核心開發者最關心的問題是存儲大小。因此,目前在解決計算和數據瓶頸方面的巨大努力,甚至對共識演算法的改變,都不太可能帶來gaslimit的大幅提升。即使解決了以太坊最大的DoS弱點,也只能將gaslimit提高20%。

對於存儲大小的問題,唯一解決方案是無狀態和狀態逾期。無狀態使得節點群能夠在不維護永久存儲的情況下進行驗證。狀態逾期會使最近未訪問過的狀態失活,用戶需要手動提供證明來更新。這兩條路徑已經研究了很長時間,並且已經開始了關於無狀態的概念驗證實現。這兩項改進相結合可以大大緩解這些擔憂,並為顯著提升gaslimit開辟空間。但即使在實施無狀態和狀態逾期之後,gaslimit也可能只會安全地提升約3倍,直到其他限制開始發揮作用。

另一個可能的中期解決方案使使用ZK-SNARKs來驗證交易。ZK-SNARKs能夠保證普通用戶無需個人存儲狀態或是驗證區塊,即使他們仍然需要下載區塊中的所有數據來抵禦數據不可用攻擊。另外,即使攻擊者不能強行提交無效區塊,但是如果運行一個共識節點的難度過高,依然會有協調審查攻擊的風險。因此,ZK-SNARKs不能無限地提升節點能力,但是仍然能夠對其進行大幅提升(或許是1-2個數量級)。一些區塊鏈在layer1上探索該形式,以太坊則通過layer2協議(也叫ZKrollups)來獲益,例如zksync,Loopring和Starknet。

分片之後又會如何?

分片從根本上解決了上述限制,因為它將區塊鏈上包含的數據與單個節點需要處理和存儲的數據解耦了。節點驗證區塊不是通過親自下載和執行,而是使用先進的數學和密碼學技術來間接驗證區塊。

因此,分片區塊鏈可以安全地擁有非分片區塊鏈無法實現的非常高水平的吞吐量。這確實需要大量的密碼學技術來有效替代樸素完整驗證,以拒絕無效區塊,但這是可以做到的:該理論已經具備了基礎,並且基於草案規范的概念驗證已經在進行中。

以太坊計劃採用二次方分片(quadraticsharding),其中總可擴展性受到以下事實的限制:節點必須能夠同時處理單個分片和信標鏈,而信標鏈必須為每個分片執行一些固定的管理工作。如果分片太大,節點就不能再處理單個分片,如果分片太多,節點就不能再處理信標鏈。這兩個約束的乘積構成了上限。

可以想像,通過三次方分片甚至指數分片,我們可以走得更遠。在這樣的設計中,數據可用性采樣肯定會變得更加復雜,但這是可以實現的。但以太坊並沒有超越二次方,原因在於,從交易分片到交易分片的分片所獲得的額外可擴展性收益實際上無法在其他風險程度可接受的前提下實現。

那麼這些風險是什麼呢?

最低用戶數量

可以想像,只要有一個用戶願意參與,非分片區塊鏈就可以運行。但分片區塊鏈並非如此:單個節點無法處理整條鏈,因此需要足夠的節點以共同處理區塊鏈。如果每個節點可以處理50TPS,而鏈可以處理10000TPS,那麼鏈至少需要200個節點才能存續。如果鏈在任何時候都少於200個節點,那可能會出現節點無法再保持同步,或者節點停止檢測無效區塊,或者還可能會發生許多其他壞事,具體取決於節點軟體的設置。

在實踐中,由於需要冗餘(包括數據可用性采樣),安全的最低數量比簡單的「鏈TPS除以節點TPS」高幾倍,對於上面的例子,我們將其設置位1000個節點。

如果分片區塊鏈的容量增加10倍,則最低用戶數也增加10倍。現在大家可能會問:為什麼我們不從較低的容量開始,當用戶很多時再增加,因為這是我們的實際需要,用戶數量回落再降低容量?

這里有幾個問題:

區塊鏈本身無法可靠地檢測到其上有多少唯一用戶,因此需要某種治理來檢測和設置分片數量。對容量限制的治理很容易成為分裂和沖突的根源。

如果許多用戶突然同時意外掉線怎麼辦?

增加啟動分叉所需的最低用戶數量,使得防禦惡意控制更加艱難。

最低用戶數為1,000,這幾乎可以說是沒問題的。另一方面,最低用戶數設為100萬,這肯定是不行。即使最低用戶數為10,000也可以說開始變得有風險。因此,似乎很難證明超過幾百個分片的分片區塊鏈是合理的。

歷史可檢索性

用戶真正珍視的區塊鏈重要屬性是永久性。當公司破產或是維護該生態系統不再產生利益時,存儲在伺服器上的數字資產將在10年內不再存在。而以太坊上的NFT是永久的。

是的,到2372年人們仍能夠下載並查閱你的加密貓。

但是一旦區塊鏈的容量過高,存儲所有這些數據就會變得更加困難,直到某時出現巨大風險,某些歷史數據最終將……沒人存儲。

要量化這種風險很容易。以區塊鏈的數據容量(MB/sec)為單位,乘以~30得到每年存儲的數據量(TB)。當前的分片計劃的數據容量約為1.3MB/秒,因此約為40TB/年。如果增加10倍,則為400TB/年。如果我們不僅希望可以訪問數據,而且是以一種便捷的方式,我們還需要元數據(例如解壓縮匯總交易),因此每年達到4PB,或十年後達到40PB。InternetArchive(互聯網檔案館)使用50PB。所以這可以說是分片區塊鏈的安全大小上限。

因此,看起來在這兩個維度上,以太坊分片設計實際上已經非常接近合理的最大安全值。常數可以增加一點,但不能增加太多。

結語

嘗試擴容區塊鏈的方法有兩種:基礎的技術改進和簡單地提升參數。首先,提升參數聽起來很有吸引力:如果您是在餐紙上進行數學運算,這就很容易讓自己相信消費級筆記本電腦每秒可以處理數千筆交易,不需要ZK-SNARK、rollups或分片。不幸的是,有很多微妙的理由可以解釋為什麼這種方法是有根本缺陷的。

運行區塊鏈節點的計算機無法使用100%的CPU來驗證區塊鏈;他們需要很大的安全邊際來抵抗意外的DoS攻擊,他們需要備用容量來執行諸如在內存池中處理交易之類的任務,並且用戶不希望在計算機上運行節點的時候無法同時用於任何其他應用。帶寬也會受限:10MB/s的連接並不意味著每秒可以處理10MB的區塊!也許每12秒才能處理1-5MB的塊。存儲也是一樣,提高運行節點的硬體要求並且限制專門的節點運行者並不是解決方案。對於去中心化的區塊鏈而言,普通用戶能夠運行節點並形成一種文化,即運行節點是一種普遍行為,這一點至關重要。

區塊鏈網路擁堵怎麼辦

1

什麼是網路擁堵

通常指的是一種網路故障現象:某辦公區域網計算機使用一個帶路由功能的ADSLModem+HUB共享上網。當同一時間上網人數較少的時候網路比較通暢,上網人數多了以後網路會時斷時通,並且HUB的Collision指示燈會閃爍不停。

而在區塊鏈的應用程序中,無論是數字貨幣、智能合約、去中心的交易系統等,它們的網路都是由一個個獨立的節點組成的,發生在節點中的各種操作,比如轉賬交易、合約狀態的變更等,都會以交易事務的數據形式廣播到網路中,通過礦工打包到新的區塊,作為主鏈的一部分而最終確認所有的這些操作。

當節點很多,使用量很多的時候,大量發生的交易就會來不及在正常期望的時間內被打包,因為它們都擁堵在網路中,這些等待的被確認的交易數據通常會維持在節點的內存池中。這個就是區塊鏈的擁堵。

2

網路擁堵是怎麼發生的

目前比特幣區塊大小為1M,每秒大約只能處理7個交易。隨著交易量不斷增長,比特幣網路已經難以迅速地進行轉賬交易確認,區塊鏈網路時常出現擁堵。

區塊鏈網路上最高時有上萬筆交易積壓,某些轉賬交易手續費高達幾十美元,網路擁堵時,交易甚至需要花費好幾天才能被打包。

實際上對於每一類區塊鏈應用來說,這個問題都是存在的,造成不斷有用戶抱怨交易延遲的問題,但也側面證明了應用的廣泛,以及用戶體量的增加。

那麼發生這些問題,我們應該怎麼辦呢?

3

網路擁堵怎麼解決

解決的方法,無非有如下幾種。

第一種擴容,提高處理能力。

第二種截流,限制區塊鏈包的數量。

通過將上述兩種方法進行綜合。

悉尼大學研究者研發了一種新型的區塊鏈系統,在100台機器中能夠實現每秒44萬筆交易的吞吐量,而Visa每秒的交易處理器是5.6萬筆。相比之下,比特幣每秒的交易限制在7筆,以太坊區塊鏈則為20筆。

JadeChain公鏈系統上線後,將徹底解決JADE生態應用中的網路擁堵問題。

⑤ 區塊鏈怎麼增加節點(區塊鏈的節點怎麼盈利)

區塊鏈技術上的節點是什麼?

一個區塊不等於一個節點:一個節點實際上就是一台接入區塊鏈的計算機(伺服器),任何聯網的計算機都可以接入區塊鏈,所以區塊鏈上的節點是無數的;但是區塊鏈上的區塊是有限的,即每10分鍾產生一個區塊,達到一定數量後便不再新增。

區塊鏈現在到底有哪些實際的應用場景?

區塊鏈現在到實際的應用場景有:

1、傳統的信息共享的痛點

要麼是統一由一個中心進行信息發布和分發,要麼是彼此之間定時批量對賬(典型的每天一次),對於有時效性要求的信息共享,難以達到實時共享。

信息共享的雙方缺少一種相互信任的通信方式,難以確定收到的信息是否是對方發送的。

2、區塊鏈+信息共享

首先,區塊鏈本身就是需要保持各個節點的數據一致性的,可以說是自帶信息共享功能;其次,實時的問題通過區塊鏈的P2P技術可以實現;最後,利用區塊鏈的不可篡改和共識機制,可構建其一條安全可靠的信息共享通道。

也行你會有這樣的疑問:解決上面的問題,不用區塊鏈技術,我自己建個加密通道也可以搞定啊!但我想說,既然區塊鏈技術能夠解決這些問題,並且增加節點非常方便,在你沒有已經建好一套安全可靠的信息共享系統之前,為什麼不用區塊鏈技術呢?

3、應用案例

舉下騰訊自己的應用--公益尋人鏈,區塊鏈在信息共享中發揮的價值。比特幣解決了貨幣在發行和記賬環節的信任問題,我們來看下比特幣是如何一一破解上面的兩個問題。

濫發問題:比特幣的獲取只能通過挖礦獲得,且比特幣總量為2100萬個,在發行環節解決了貨幣濫發的問題;賬本修改問題:比特幣的交易記錄通過鏈式存儲和去中心化的全球節點構成網路來解決賬本修改問題。

鏈式存儲可以簡單理解為:存儲記錄的塊是一塊連著一塊的,形成一個鏈條;除第一個塊的所有區塊都的記錄包含了前一區塊的校驗信息,改變任一區塊的信息,都將導致後續區塊校驗出錯。因為這種關聯性,中間也無法插入其他塊,所以修改已有記錄是困難的。

什麼是區塊鏈擴容?

普通用戶能夠運行節點對於區塊鏈的去中心化至關重要

想像一下凌晨兩點多,你接到了一個緊急呼叫,來自世界另一端幫你運行礦池(質押池)的人。從大約14分鍾前開始,你的池子和其他幾個人從鏈中分離了出來,而網路仍然維持著79%的算力。根據你的節點,多數鏈的區塊是無效的。這時出現了余額錯誤:區塊似乎錯誤地將450萬枚額外代幣分配給了一個未知地址。

一小時後,你和其他兩個同樣遭遇意外的小礦池參與者、一些區塊瀏覽器和交易所方在一個聊天室中,看見有人貼出了一條推特的鏈接,開頭寫著「宣布新的鏈上可持續協議開發基金」。

到了早上,相關討論廣泛散布在推特以及一個不審查內容的社區論壇上。但那時450萬枚代幣中的很大一部分已經在鏈上轉換為其他資產,並且進行了數十億美元的defi交易。79%的共識節點,以及所有主要的區塊鏈瀏覽器和輕錢包的端點都遵循了這條新鏈。也許新的開發者基金將為某些開發提供資金,或者也許所有這些都被領先的礦池、交易所及其裙帶所吞並。但是無論結果如何,該基金實際上都成為了既成事實,普通用戶無法反抗。

或許還有這么一部主題電影。或許會由MolochDAO或其他組織進行資助。

這種情形會發生在你的區塊鏈中嗎?你所在區塊鏈社區的精英,包括礦池、區塊瀏覽器和託管節點,可能協調得很好,他們很可能都在同一個telegram頻道和微信群中。如果他們真的想出於利益突然對協議規則進行修改,那麼他們可能具備這種能力。以太坊區塊鏈在十小時內完全解決了共識失敗,如果是只有一個客戶端實現的區塊鏈,並且只需要將代碼更改部署到幾十個節點,那麼可以更快地協調客戶端代碼的更改。能夠抵禦這種社會性協作攻擊的唯一可靠方式是「被動防禦」,而這種力量來自去一個中心化的群體:用戶。

想像一下,如果用戶運行區塊鏈的驗證節點(無論是直接驗證還是其他間接技術),並自動拒絕違反協議規則的區塊,即使超過90%的礦工或質押者支持這些區塊,故事會如何發展。

如果每個用戶都運行一個驗證節點,那麼攻擊很快就會失敗:有些礦池和交易所會進行分叉,並且在整個過程中看起來很愚蠢。但是即使只有一些用戶運行驗證節點,攻擊者也無法大獲全勝。相反,攻擊會導致混亂,不同用戶會看到不同的區塊鏈版本。最壞情況下,隨之而來的市場恐慌和可能持續的鏈分叉將大幅減少攻擊者的利潤。對如此曠日持久的沖突進行應對的想法本身就可以阻止大多數攻擊。

Hasu關於這一點的看法:

「我們要明確一件事,我們之所以能夠抵禦惡意的協議更改,是因為擁有用戶驗證區塊鏈的文化,而不是因為PoW或PoS。」

假設你的社區有37個節點運行者,以及80000名被動監聽者,對簽名和區塊頭進行檢查,那麼攻擊者就獲勝了。如果每個人都運行節點的話,攻擊者就會失敗。我們不清楚針對協同攻擊的啟動群體免疫的確切閾值是多少,但有一點是絕對清楚的:好的節點越多,惡意的節點就越少,而且我們所需的數量肯定不止於幾百幾千個。

那麼全節點工作的上限是什麼?

為了使得有盡可能多的用戶能夠運行全節點,我們會將注意力集中在普通消費級硬體上。即使能夠輕松購買到專用硬體,這能夠降低一些全節點的門檻,但事實上對可擴展性的提升並不如我們想像的那般。

全節點處理大量交易的能力主要受限於三個方面:

算力:在保證安全的前提下,我們能劃分多少CPU來運行節點?

帶寬:基於當前的網路連接,一個區塊能包含多少位元組?

存儲:我們能要求用戶使用多大的空間來進行存儲?此外,其讀取速度應該達到多少?(即,HDD足夠嗎?還是說我們需要SSD?)

許多使用「簡單」技術對區塊鏈進行大幅擴容的錯誤看法都源自於對這些數字過於樂觀的估計。我們可以依次來討論這三個因素:

算力

錯誤答案:100%的CPU應該用於區塊驗證

正確答案:約5-10%的CPU可以用於區塊驗證

限制之所以這么低的四個主要原因如下:

我們需要一個安全邊界來覆蓋DoS攻擊的可能性(攻擊者利用代碼弱點製造的交易需要比常規交易更長的處理時間)

節點需要在離線之後能夠與區塊鏈同步。如果我掉線一分鍾,那我應該要能夠在幾秒鍾之內完成同步

運行節點不應該很快地耗盡電池,也不應該拖慢其他應用的運行速度

節點也有其他非區塊生產的工作要進行,大多數是驗證以及對p2p網路中輸入的交易和請求做出響應

請注意,直到最近大多數針對「為什麼只需要5-10%?」這一點的解釋都側重於另一個不同的問題:因為PoW出塊時間不定,驗證區塊需要很長時間,會增加同時創建多個區塊的風險。這個問題有很多修復方法,例如BitcoinNG,或使用PoS權益證明。但這些並沒有解決其他四個問題,因此它們並沒有如許多人所料在可擴展性方面獲得巨大進展。

並行性也不是靈丹妙葯。通常,即使是看似單線程區塊鏈的客戶端也已經並行化了:簽名可以由一個線程驗證,而執行由其他線程完成,並且有一個單獨的線程在後台處理交易池邏輯。而且所有線程的使用率越接近100%,運行節點的能源消耗就越多,針對DoS的安全系數就越低。

帶寬

錯誤答案:如果沒2-3秒都產生10MB的區塊,那麼大多數用戶的網路都大於10MB/秒,他們當然都能處理這些區塊

正確答案:或許我們能在每12秒處理1-5MB的區塊,但這依然很難

如今,我們經常聽到關於互聯網連接可以提供多少帶寬的廣為傳播的統計數據:100Mbps甚至1Gbps的數字很常見。但是由於以下幾個原因,宣稱的帶寬與預期實際帶寬之間存在很大差異:

「Mbps」是指「每秒數百萬bits」;一個bit是一個位元組的1/8,因此我們需要將宣稱的bit數除以8以獲得位元組數。

網路運營商,就像其他公司一樣,經常編造謊言。

總是有多個應用使用同一個網路連接,所以節點無法獨占整個帶寬。

P2P網路不可避免地會引入開銷:節點通常最終會多次下載和重新上傳同一個塊(更不用說交易在被打包進區塊之前還要通過mempool進行廣播)。

當Starkware在2019年進行一項實驗時,他們在交易數據gas成本降低後首次發布了500kB的區塊,一些節點實際上無法處理這種大小的區塊。處理大區塊的能力已經並將持續得到改善。但是無論我們做什麼,我們仍然無法獲取以MB/秒為單位的平均帶寬,說服自己我們可以接受1秒的延遲,並且有能力處理那種大小的區塊。

存儲

錯誤答案:10TB

正確答案:512GB

正如大家可能猜到的,這里的主要論點與其他地方相同:理論與實踐之間的差異。理論上,我們可以在亞馬遜上購買8TB固態驅動(確實需要SSD或NVME;HDD對於區塊鏈狀態存儲來說太慢了)。實際上,我用來寫這篇博文的筆記本電腦有512GB,如果你讓人們去購買硬體,許多人就會變得懶惰(或者他們無法負擔800美元的8TBSSD)並使用中心化服務。即使可以將區塊鏈裝到某個存儲設備上,大量活動也可以快速地耗盡磁碟並迫使你購入新磁碟。

一群區塊鏈協議研究員對每個人的磁碟空間進行了調查。我知道樣本量很小,但仍然...

請點擊輸入圖片描述

此外,存儲大小決定了新節點能夠上線並開始參與網路所需的時間。現有節點必須存儲的任何數據都是新節點必須下載的數據。這個初始同步時間(和帶寬)也是用戶能夠運行節點的主要障礙。在寫這篇博文時,同步一個新的geth節點花了我大約15個小時。如果以太坊的使用量增加10倍,那麼同步一個新的geth節點將至少需要一周時間,而且更有可能導致節點的互聯網連接受到限制。這在攻擊期間更為重要,當用戶之前未運行節點時對攻擊做出成功響應需要用戶啟用新節點。

交互效應

此外,這三類成本之間存在交互效應。由於資料庫在內部使用樹結構來存儲和檢索數據,因此從資料庫中獲取數據的成本隨著資料庫大小的對數而增加。事實上,因為頂級(或前幾級)可以緩存在RAM中,所以磁碟訪問成本與資料庫大小成正比,是RAM中緩存數據大小的倍數。

不要從字面上理解這個圖,不同的資料庫以不同的方式工作,通常內存中的部分只是一個單獨(但很大)的層(參見leveldb中使用的LSM樹)。但基本原理是一樣的。

例如,如果緩存為4GB,並且我們假設資料庫的每一層比上一層大4倍,那麼以太坊當前的~64GB狀態將需要~2次訪問。但是如果狀態大小增加4倍到~256GB,那麼這將增加到~3次訪問。因此,gas上限增加4倍實際上可以轉化為區塊驗證時間增加約6倍。這種影響可能會更大:硬碟在已滿狀態下比空閑時需要花更長時間來讀寫。

這對以太坊來說意味著什麼?

現在在以太坊區塊鏈中,運行一個節點對許多用戶來說已經是一項挑戰,盡管至少使用常規硬體仍然是可能的(我寫這篇文章時剛剛在我的筆記本電腦上同步了一個節點!)。因此,我們即將遭遇瓶頸。核心開發者最關心的問題是存儲大小。因此,目前在解決計算和數據瓶頸方面的巨大努力,甚至對共識演算法的改變,都不太可能帶來gaslimit的大幅提升。即使解決了以太坊最大的DoS弱點,也只能將gaslimit提高20%。

對於存儲大小的問題,唯一解決方案是無狀態和狀態逾期。無狀態使得節點群能夠在不維護永久存儲的情況下進行驗證。狀態逾期會使最近未訪問過的狀態失活,用戶需要手動提供證明來更新。這兩條路徑已經研究了很長時間,並且已經開始了關於無狀態的概念驗證實現。這兩項改進相結合可以大大緩解這些擔憂,並為顯著提升gaslimit開辟空間。但即使在實施無狀態和狀態逾期之後,gaslimit也可能只會安全地提升約3倍,直到其他限制開始發揮作用。

另一個可能的中期解決方案使使用ZK-SNARKs來驗證交易。ZK-SNARKs能夠保證普通用戶無需個人存儲狀態或是驗證區塊,即使他們仍然需要下載區塊中的所有數據來抵禦數據不可用攻擊。另外,即使攻擊者不能強行提交無效區塊,但是如果運行一個共識節點的難度過高,依然會有協調審查攻擊的風險。因此,ZK-SNARKs不能無限地提升節點能力,但是仍然能夠對其進行大幅提升(或許是1-2個數量級)。一些區塊鏈在layer1上探索該形式,以太坊則通過layer2協議(也叫ZKrollups)來獲益,例如zksync,Loopring和Starknet。

分片之後又會如何?

分片從根本上解決了上述限制,因為它將區塊鏈上包含的數據與單個節點需要處理和存儲的數據解耦了。節點驗證區塊不是通過親自下載和執行,而是使用先進的數學和密碼學技術來間接驗證區塊。

因此,分片區塊鏈可以安全地擁有非分片區塊鏈無法實現的非常高水平的吞吐量。這確實需要大量的密碼學技術來有效替代樸素完整驗證,以拒絕無效區塊,但這是可以做到的:該理論已經具備了基礎,並且基於草案規范的概念驗證已經在進行中。

以太坊計劃採用二次方分片(quadraticsharding),其中總可擴展性受到以下事實的限制:節點必須能夠同時處理單個分片和信標鏈,而信標鏈必須為每個分片執行一些固定的管理工作。如果分片太大,節點就不能再處理單個分片,如果分片太多,節點就不能再處理信標鏈。這兩個約束的乘積構成了上限。

可以想像,通過三次方分片甚至指數分片,我們可以走得更遠。在這樣的設計中,數據可用性采樣肯定會變得更加復雜,但這是可以實現的。但以太坊並沒有超越二次方,原因在於,從交易分片到交易分片的分片所獲得的額外可擴展性收益實際上無法在其他風險程度可接受的前提下實現。

那麼這些風險是什麼呢?

最低用戶數量

可以想像,只要有一個用戶願意參與,非分片區塊鏈就可以運行。但分片區塊鏈並非如此:單個節點無法處理整條鏈,因此需要足夠的節點以共同處理區塊鏈。如果每個節點可以處理50TPS,而鏈可以處理10000TPS,那麼鏈至少需要200個節點才能存續。如果鏈在任何時候都少於200個節點,那可能會出現節點無法再保持同步,或者節點停止檢測無效區塊,或者還可能會發生許多其他壞事,具體取決於節點軟體的設置。

在實踐中,由於需要冗餘(包括數據可用性采樣),安全的最低數量比簡單的「鏈TPS除以節點TPS」高幾倍,對於上面的例子,我們將其設置位1000個節點。

如果分片區塊鏈的容量增加10倍,則最低用戶數也增加10倍。現在大家可能會問:為什麼我們不從較低的容量開始,當用戶很多時再增加,因為這是我們的實際需要,用戶數量回落再降低容量?

這里有幾個問題:

區塊鏈本身無法可靠地檢測到其上有多少唯一用戶,因此需要某種治理來檢測和設置分片數量。對容量限制的治理很容易成為分裂和沖突的根源。

如果許多用戶突然同時意外掉線怎麼辦?

增加啟動分叉所需的最低用戶數量,使得防禦惡意控制更加艱難。

最低用戶數為1,000,這幾乎可以說是沒問題的。另一方面,最低用戶數設為100萬,這肯定是不行。即使最低用戶數為10,000也可以說開始變得有風險。因此,似乎很難證明超過幾百個分片的分片區塊鏈是合理的。

歷史可檢索性

用戶真正珍視的區塊鏈重要屬性是永久性。當公司破產或是維護該生態系統不再產生利益時,存儲在伺服器上的數字資產將在10年內不再存在。而以太坊上的NFT是永久的。

是的,到2372年人們仍能夠下載並查閱你的加密貓。

但是一旦區塊鏈的容量過高,存儲所有這些數據就會變得更加困難,直到某時出現巨大風險,某些歷史數據最終將……沒人存儲。

要量化這種風險很容易。以區塊鏈的數據容量(MB/sec)為單位,乘以~30得到每年存儲的數據量(TB)。當前的分片計劃的數據容量約為1.3MB/秒,因此約為40TB/年。如果增加10倍,則為400TB/年。如果我們不僅希望可以訪問數據,而且是以一種便捷的方式,我們還需要元數據(例如解壓縮匯總交易),因此每年達到4PB,或十年後達到40PB。InternetArchive(互聯網檔案館)使用50PB。所以這可以說是分片區塊鏈的安全大小上限。

因此,看起來在這兩個維度上,以太坊分片設計實際上已經非常接近合理的最大安全值。常數可以增加一點,但不能增加太多。

結語

嘗試擴容區塊鏈的方法有兩種:基礎的技術改進和簡單地提升參數。首先,提升參數聽起來很有吸引力:如果您是在餐紙上進行數學運算,這就很容易讓自己相信消費級筆記本電腦每秒可以處理數千筆交易,不需要ZK-SNARK、rollups或分片。不幸的是,有很多微妙的理由可以解釋為什麼這種方法是有根本缺陷的。

運行區塊鏈節點的計算機無法使用100%的CPU來驗證區塊鏈;他們需要很大的安全邊際來抵抗意外的DoS攻擊,他們需要備用容量來執行諸如在內存池中處理交易之類的任務,並且用戶不希望在計算機上運行節點的時候無法同時用於任何其他應用。帶寬也會受限:10MB/s的連接並不意味著每秒可以處理10MB的區塊!也許每12秒才能處理1-5MB的塊。存儲也是一樣,提高運行節點的硬體要求並且限制專門的節點運行者並不是解決方案。對於去中心化的區塊鏈而言,普通用戶能夠運行節點並形成一種文化,即運行節點是一種普遍行為,這一點至關重要。

歐易怎麼快速成為節點

邀請5人。歐易軟體而當有效邀請人達到5人時,用戶可以選擇升級為歐易節點,不再享受邀請獎勵,但可以享受被邀請人的手續費返佣。只要通過區塊鏈網路的許可,就可以成為其中的一個節點。

⑥ 比特幣礦池有什麼差別

主要是獲得的比特幣分配模式不同:根據運營模式,常見的比特幣礦池有如下幾種:PPLNS、PPS、DGM、P2Pool等

PPLNS:(最純正的組隊挖礦)全稱Pay Per Last N Shares,意思是說「根據過去的N個股份來支付收益」,這意味著,所有的礦工一旦發現了一個區塊,大家將根據每個人自己貢獻的股份數量佔比來分配區塊中的貨幣。(share就是股份的意思)

在PPLNS模式下,運氣成份非常重要,如果礦池一天能夠發現很多個區塊,那麼大家的分紅也會非常多,如果礦池一天下來都沒有能夠發現區塊,那麼大家也就沒有任何收益。

PPS:Pay-Per-Share方式---該方式為立即為每一個share支付報酬。該支出來源於礦池現有的比特幣資金,因此可以立即取現,而不用等待區塊生成完畢或者確認。這樣可以避免礦池運營者幕後操縱。這中方法減少了礦工的風險,但將風險轉移給了礦池的運營者。運營者可以收取手續費來彌補這些風險可能造成的損失。

為了解決PPLNS那種有時候收益很高,有時候沒有收益的情況,PPS採用了新的演算法。PPS根據你的算力在礦池中的佔比,並估算了礦池每天可以獲得的礦產,給你每天基本固定的收益。

怎麼樣,有沒有感覺這就是一個穩定的工作?實際上,PPS模式的礦池為了避免虧本風險,往往會收取7%-8%的高額手續費。

DGM:Double Geometric Method. 雙幾何制. 結合了 PPLNS 和幾何獎勵類型, 使得礦池運營者能規避一部分風險. 礦池運營者在短期內收取部分挖出的貨幣, 然後在之後以正規化過的值返還給礦工,像電容充放電, 運氣好每 block 少給你點, 運氣差多給你點。

175btc:175btc的挖礦節點工作在類似比特幣區塊鏈的一種shares鏈上。由於沒有中心,所以也不會受到DoS攻擊。和其他現有的礦池技術都不一樣---每個節點工作的區塊,都包括支付給前期shares的所有者以及該節點自己的比特幣。99%的獎勵(50BTC+交易費用)會平均分給礦工,另外0.5%會獎勵給生成區塊的人。

比特幣之家網有詳細的介紹。

閱讀全文

與對比特幣礦池dos攻擊相關的資料

熱點內容
美股與虛擬貨幣 瀏覽:76
eth和btc在哪買 瀏覽:435
btc怎麼取錢 瀏覽:996
p106以太坊 瀏覽:60
one區塊鏈瀏覽器 瀏覽:902
比特幣買iphone 瀏覽:152
虛擬幣btc定價什麼意思 瀏覽:181
以太坊為什麼今天暴跌 瀏覽:930
洛倫茲力算角度的公式 瀏覽:132
對比特幣礦池dos攻擊 瀏覽:220
ios開發虛擬貨幣怎麼弄 瀏覽:608
580如何提升算力到30 瀏覽:948
以太坊應用層 瀏覽:8
在哪裡可以買的比特幣 瀏覽:297
2018年比特幣總算力 瀏覽:721
以太坊java源代碼 瀏覽:598
BTC計價收費 瀏覽:527
數字貨幣場外交易平台排名 瀏覽:721
比特幣文章今日文章 瀏覽:107
諸城市區塊魚礦池 瀏覽:663