女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

分布式系統的CAP和數據一致性模型

汽車玩家 ? 來源:IT知識課堂 ? 作者:IT知識課堂 ? 2020-05-05 23:20 ? 次閱讀

一、分布式系統的挑戰

關于分布式系統有一個經典的CAP理論,

分布式系統的CAP和數據一致性模型


CAP理論的核心思想是任何基于網絡的數據共享系統最多只能滿足數據一致性(Consistency)、可用性(Availability)和網絡分區容忍(Partition Tolerance)三個特性中的兩個。

Consistency 一致性

一致性指“all nodes see the same data at the same time”,即更新操作成功并返回客戶端完成后,所有節點在同一時間的數據完全一致。等同于所有節點擁有數據的最新版本。

Availability 可用性

可用性指“Reads and writes always succeed”,即服務一直可用,而且是正常響應時間。
對于一個可用性的分布式系統,每一個非故障的節點必須對每一個請求作出響應。也就是,該系統使用的任何算法必須最終終止。當同時要求分區容忍性時,這是一個很強的定義:即使是嚴重的網絡錯誤,每個請求必須終止。

Partition Tolerance 分區容忍性

Tolerance也可以翻譯為容錯,分區容忍性具體指“the system continues to operate despite arbitrary message loss or failure of part of the system”,即系統容忍網絡出現分區,分區之間網絡不可達的情況,分區容忍性和擴展性緊密相關,Partition Tolerance特指在遇到某節點或網絡分區故障的時候,仍然能夠對外提供滿足一致性和可用性的服務。

提高分區容忍性的辦法就是一個數據項復制到多個節點上,那么出現分區之后,這一數據項就可能分布到各個區里。分區容忍就提高了。然而,要把數據復制到多個節點,就會帶來一致性的問題,就是多個節點上面的數據可能是不一致的。要保證一致,每次寫操作就都要等待全部節點寫成功,而這等待又會帶來可用性的問題。

分布式系統的CAP和數據一致性模型


如圖,Client A可以發送指令到Server并且設置更新X的值,Client 1從Server讀取該值,在單點情況下,即沒有網絡分區的情況下,或者通過簡單的事務機制,可以保證Client 1讀到的始終是最新的值,不存在一致性的問題。

如果在系統中增加一組節點,Write操作可能在Server 1上成功,在Server 1上失敗,這時候對于Client 1和Client 2,就會讀取到不一致的值,出現不一致。如果要保持x值的一致性,Write操作必須同時失敗,降低系統的可用性。

可以看到,在分布式系統中,同時滿足CAP定律中“一致性”、“可用性”和“分區容錯性”三者是不可能的。

在通常的分布式系統中,為了保證數據的高可用,通常會將數據保留多個副本(replica),網絡分區是既成的現實,于是只能在可用性和一致性兩者間做出選擇。CAP理論關注的是絕對情況下,在工程上,可用性和一致性并不是完全對立,我們關注的往往是如何在保持相對一致性的前提下,提高系統的可用性。

二、數據一致性模型

在互聯網領域的絕大多數的場景,都需要犧牲強一致性來換取系統的高可用性,系統往往只需要保證“最終一致性”,只要這個最終時間是在用戶可以接受的范圍內即可。

對于一致性,可以分為從服務端和客戶端兩個不同的視角,即內部一致性和外部一致性。
沒有全局時鐘,絕對的內部一致性是沒有意義的,一般來說,我們討論的一致性都是外部一致性。外部一致性主要指的是多并發訪問時更新過的數據如何獲取的問題。

強一致性:
當更新操作完成之后,任何多個后續進程或者線程的訪問都會返回最新的更新過的值。這種是對用戶最友好的,就是用戶上一次寫什么,下一次就保證能讀到什么。根據 CAP 理論,這種實現需要犧牲可用性。

弱一致性:
系統并不保證續進程或者線程的訪問都會返回最新的更新過的值。用戶讀到某一操作對系統特定數據的更新需要一段時間,我們稱這段時間為“不一致性窗口”。系統在數據寫入成功之后,不承諾立即可以讀到最新寫入的值,也不會具體的承諾多久之后可以讀到。

最終一致性:
是弱一致性的一種特例。系統保證在沒有后續更新的前提下,系統最終返回上一次更新操作的值。在沒有故障發生的前提下,不一致窗口的時間主要受通信延遲,系統負載和復制副本的個數影響。

最終一致性模型根據其提供的不同保證可以劃分為更多的模型,包括因果一致性和讀自寫一致性等。

三、兩階段和三階段提交

在分布式系統中,各個節點之間在物理上相互獨立,通過網絡進行溝通和協調。典型的比如關系型數據庫,由于存在事務機制,可以保證每個獨立節點上的數據操作可以滿足ACID。但是,相互獨立的節點之間無法準確的知道其他節點中的事務執行情況,所以兩臺機器理論上無法達到一致的狀態。

如果想讓分布式部署的多臺機器中的數據保持一致性,那么就要保證在所有節點的數據寫操作,要不全部都執行,要么全部的都不執行。但是,一臺機器在執行本地事務的時候無法知道其他機器中的本地事務的執行結果。所以節點并不知道本次事務到底應該commit還是roolback。

所以實現分布式事務,需要讓當前節點知道其他節點的任務執行狀態。常規的解決辦法就是引入一個“協調者”的組件來統一調度所有分布式節點的執行。著名的是二階段提交協議(Two Phase Commitment Protocol)和三階段提交協議(Three Phase Commitment Protocol)。

1、二階段提交協議

Two Phase指的是Commit-request階段和Commit階段。

請求階段

在請求階段,協調者將通知事務參與者準備提交或取消事務,然后進入表決過程。在表決過程中,參與者將告知協調者自己的決策:同意(事務參與者本地作業執行成功)或取消(本地作業執行故障)。

提交階段

在該階段,協調者將基于第一個階段的投票結果進行決策:提交或取消。當且僅當所有的參與者同意提交事務協調者才通知所有的參與者提交事務,否則協調者將通知所有的參與者取消事務。參與者在接收到協調者發來的消息后將執行響應的操作。

分布式系統的CAP和數據一致性模型


可以看出,兩階段提交協議存在明顯的問題:

同步阻塞

執行過程中,所有參與節點都是事務獨占狀態,當參與者占有公共資源時,第三方節點訪問公共資源被阻塞。

單點問題

一旦協調者發生故障,參與者會一直阻塞下去。

數據不一致性

在第二階段中,假設協調者發出了事務commit的通知,但是因為網絡問題該通知僅被一部分參與者所收到并執行commit,其余的參與者沒有收到通知一直處于阻塞狀態,這段時間就產生了數據的不一致性。

2、三階段提交協議

Three Phase分別為CanCommit、PreCommit、DoCommit。

分布式系統的CAP和數據一致性模型


三階段提交針對兩階段提交做了改進:

引入超時機制。在2PC中,只有協調者擁有超時機制,3PC同時在協調者和參與者中都引入超時機制。

在第一階段和第二階段中插入一個準備階段。保證了在最后提交階段之前各參與節點的狀態是一致的。

四、Paxos算法的提出

二階段提交還是三階段提交都無法很好的解決分布式的一致性問題,直到Paxos算法的提出,Paxos協議由Leslie Lamport最早在1990年提出,目前已經成為應用最廣的分布式一致性算法。Google Chubby的作者Mike Burrows說過這個世界上只有一種一致性算法,那就是Paxos,其它的算法都是殘次品。

1、節點角色

Paxos 協議中,有三類節點:

Proposer:提案者

Proposer可以有多個,Proposer 提出議案(value)。所謂 value,在工程中可以是任何操作,例如“修改某個變量的值為某個值”、“設置當前 primary 為某個節點”等等。Paxos 協議中統一將這些操作抽象為 value。不同的 Proposer 可以提出不同的甚至矛盾的 value,例如某個 Proposer 提議“將變量 X 設置為 1”,另一個 Proposer 提議“將變量 X設置為2”,但對同一輪 Paxos 過程,最多只有一個 value 被批準。

Acceptor:批準者

Acceptor有N個,Proposer提出的value必須獲得超過半數(N/2+1)的Acceptor批準后才能通過。Acceptor之間完全對等獨立。

Learner:學習者

Learner學習被批準的value。所謂學習就是通過讀取各個 Proposer 對 value 的選擇結果,如果某個 value 被超過半數 Proposer 通過,則 Learner 學習到了這個 value。這里類似 Quorum 議會機制,某個 value 需要獲得 W=N/2 + 1 的 Acceptor 批準,Learner 需要至少讀取 N/2+1 個 Accpetor,至多讀取N 個Acceptor的結果后,能學習到一個通過的value。

2、約束條件

上述三類角色只是邏輯上的劃分,實踐中一個節點可以同時充當這三類角色。有些文章會添加一個Client角色,作為產生議題者,實際不參與選舉過程。Paxos中 proposer 和acceptor是算法的核心角色,paxos描述的就是在一個由多個 proposer 和多個 acceptor 構成的系統中,如何讓多個 acceptor 針對 proposer 提出的多種提案達成一致的過程,而 learner 只是“學習”最終被批準的提案。

Paxos協議流程還需要滿足幾個約束條件:

Acceptor必須接受它收到的第一個提案;

如果一個提案的v值被大多數Acceptor接受過,那后續的所有被接受的提案中也必須包含v值(v值可以理解為提案的內容,提案由一個或多個v和提案編號組成);

如果某一輪 Paxos 協議批準了某個 value,則以后各輪 Paxos 只能批準這個value;

每輪 Paxos 協議分為準備階段和批準階段,在這兩個階段 Proposer 和 Acceptor 有各自的處理流程。

Proposer與Acceptor之間的交互主要有4類消息通信,如下圖:

分布式系統的CAP和數據一致性模型


這4類消息對應于paxos算法的兩個階段4個過程:

Phase 1
a) proposer向網絡內超過半數的acceptor發送prepare消息
b) acceptor正常情況下回復promise消息

Phase 2
a) 在有足夠多acceptor回復promise消息時,proposer發送accept消息
b) 正常情況下acceptor回復accepted消息

3、選舉過程

分布式系統的CAP和數據一致性模型

Phase 1 準備階段

Proposer 生成全局唯一且遞增的ProposalID,向 Paxos 集群的所有機器發送 Prepare請求,這里不攜帶value,只攜帶N即ProposalID 。Acceptor 收到 Prepare請求 后,判斷:收到的ProposalID 是否比之前已響應的所有提案的N大:
如果是,則:
(1) 在本地持久化 N,可記為Max_N。
(2) 回復請求,并帶上已Accept的提案中N最大的value(若此時還沒有已Accept的提案,則返回value為空)。
(3) 做出承諾:不會Accept任何小于Max_N的提案。

如果否:不回復或者回復Error。

Phase 2 選舉階段

P2a:Proposer發送 Accept
經過一段時間后,Proposer 收集到一些 Prepare 回復,有下列幾種情況:
(1) 回復數量 > 一半的Acceptor數量,且所有的回復的value都為空,則Porposer發出accept請求,并帶上自己指定的value。
(2) 回復數量 > 一半的Acceptor數量,且有的回復value不為空,則Porposer發出accept請求,并帶上回復中ProposalID最大的value(作為自己的提案內容)。
(3) 回復數量 <= 一半的Acceptor數量,則嘗試更新生成更大的ProposalID,再轉P1a執行。

P2b:Acceptor應答Accept
Accpetor 收到 Accpet請求 后,判斷:
(1) 收到的N >= Max_N (一般情況下是 等于),則回復提交成功,并持久化N和value。
(2) 收到的N < Max_N,則不回復或者回復提交失敗。

P2c: Proposer統計投票
經過一段時間后,Proposer收集到一些 Accept 回復提交成功,有幾種情況:
(1) 回復數量 > 一半的Acceptor數量,則表示提交value成功。此時,可以發一個廣播給所有Proposer、Learner,通知它們已commit的value。
(2) 回復數量 <= 一半的Acceptor數量,則 嘗試 更新生成更大的 ProposalID,再轉P1a執行。
(3) 收到一條提交失敗的回復,則嘗試更新生成更大的 ProposalID,再轉P1a執行。

4.相關討論

Paxos算法的核心思想:
(1)引入了多個Acceptor,單個Acceptor就類似2PC中協調者的單點問題,避免故障
(2)Proposer用更大ProposalID來搶占臨時的訪問權,可以對比2PC協議,防止其中一個Proposer崩潰宕機產生阻塞問題
(3)保證一個N值,只有一個Proposer能進行到第二階段運行,Proposer按照ProposalID遞增的順序依次運行(3) 新ProposalID的proposer比如認同前面提交的Value值,遞增的ProposalID的Value是一個繼承關系

為什么在Paxos運行過程中,半數以內的Acceptor失效都能運行?
(1) 如果半數以內的Acceptor失效時 還沒確定最終的value,此時,所有Proposer會競爭 提案的權限,最終會有一個提案會 成功提交。之后,會有半過數的Acceptor以這個value提交成功。
(2) 如果半數以內的Acceptor失效時 已確定最終的value,此時,所有Proposer提交前 必須以 最終的value 提交,此值也可以被獲取,并不再修改。

如何產生唯一的編號呢?
在《Paxos made simple》中提到的是讓所有的Proposer都從不相交的數據集合中進行選擇,例如系統有5個Proposer,則可為每一個Proposer分配一個標識j(0~4),則每一個proposer每次提出決議的編號可以為5*i + j(i可以用來表示提出議案的次數)。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 互聯網
    +關注

    關注

    54

    文章

    11229

    瀏覽量

    105503
  • 分布式系統
    +關注

    關注

    0

    文章

    147

    瀏覽量

    19521
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    一致性校正與邊緣融合拼接

    電子發燒友網站提供《差一致性校正與邊緣融合拼接.pdf》資料免費下載
    發表于 04-10 18:02 ?0次下載

    基于ptp的分布式系統設計

    在現代分布式系統中,精確的時間同步對于確保數據一致性系統穩定性和性能至關重要。PTP(Precision Time Protocol)是
    的頭像 發表于 12-29 10:09 ?434次閱讀

    一致性測試系統的技術原理和也應用場景

    出現遠程調用失敗、消息發送失敗、并發bug等問題,這些問題最終會導致系統間的數據一致,導致用戶體驗受損、用戶利益受損。因此,需要種在線的校驗模式來實時發現
    發表于 11-01 15:35

    異構計算下緩存一致性的重要

    在眾多回復中,李博杰同學的回答被認為質量最高。他首先將緩存一致性分為兩個主要場景:是主機內CPU與設備間的一致性;二是跨主機的一致性
    的頭像 發表于 10-24 17:00 ?1414次閱讀
    異構計算下緩存<b class='flag-5'>一致性</b>的重要<b class='flag-5'>性</b>

    LMK05318的ITU-T G.8262一致性測試結果

    電子發燒友網站提供《LMK05318的ITU-T G.8262一致性測試結果.pdf》資料免費下載
    發表于 09-20 11:21 ?0次下載
    LMK05318的ITU-T G.8262<b class='flag-5'>一致性</b>測試結果

    分布式云化數據庫的優缺點分析

    分布式云化數據庫的優點主要體現在高可用和容錯、可擴展性、體系結構、數據一致性、成本、升級迭代等方面。同時也存在
    的頭像 發表于 09-14 09:42 ?400次閱讀

    級聯一致性和移相器校準應用手冊

    電子發燒友網站提供《級聯一致性和移相器校準應用手冊.pdf》資料免費下載
    發表于 08-29 10:48 ?0次下載
    級聯<b class='flag-5'>一致性</b>和移相器校準應用手冊

    電感值和直流電阻的一致性如何提高?

    提高電感值和直流電阻的一致性,可以從以下幾個方面入手: 、提高電感值的一致性 優化磁芯選擇 : 磁芯是電感器的關鍵組成部分,其材料特性和尺寸直接影響電感值。選擇具有高磁導率、低磁阻和穩定性能的材料
    的頭像 發表于 08-19 15:27 ?603次閱讀

    CAP 定理:理論、實踐

    分布式數據存儲系統中,不可能同時滿足以下三個特性: 一致性:所有節點在同時間具有相同的
    的頭像 發表于 08-19 11:27 ?550次閱讀

    LIN一致性測試規范2.1

    電子發燒友網站提供《LIN一致性測試規范2.1.pdf》資料免費下載
    發表于 08-15 17:14 ?7次下載

    EasyGo使用筆記丨分布式光伏集群并網控制硬件在環仿真應用

    : 與常規仿真方式進行對比,Easygo硬件在環仿真仿真秒所需時間與實際時間保持一致。本次實驗達到了理論驗證的預期,驗證了EasyGo分布式光伏集群并網控制硬件在環仿真平臺的可行
    發表于 07-12 17:20

    新品發布 | 同星智能正式推出CAN總線一致性測試系統

    CAN總線一致性測試系統CANFD/CAN總線一致性測試系統,在硬件系統上基于同星自主研發的總線分析工具,干擾儀,
    的頭像 發表于 07-06 08:21 ?852次閱讀
    新品發布 | 同星智能正式推出CAN總線<b class='flag-5'>一致性</b>測試<b class='flag-5'>系統</b>

    銅線鍵合焊接一致性:如何突破技術瓶頸?

    在微電子封裝領域,銅線鍵合技術以其低成本、高效率和良好的電氣性能等優勢,逐漸成為芯片與基板連接的主流方式。然而,銅線鍵合過程中的焊接一致性問題是制約其進步發展和應用的關鍵難題。焊接一致性不僅
    的頭像 發表于 07-04 10:12 ?2317次閱讀
    銅線鍵合焊接<b class='flag-5'>一致性</b>:如何突破技術瓶頸?

    請問ESP-NOW對數據的完整一致性有校驗嗎?

    當使用ESP-NOW時,傳遞的數據在傳輸層有對數據包的完整(比如對面傳給我的字節數和我收到的字節數是否相同)有底層校驗嗎? 還有這個數據包是否經過了CRC等差錯檢測的校驗呢(就是
    發表于 06-17 06:55

    為什么主機廠愈來愈重視CAN一致性測試?

    新能源汽車迅猛發展下整車CAN網絡架構日益復雜,總線故障等潛在問題時刻影響著運行安全。整車零部件通過CAN一致性測試必將是安全保障的第道門檻。CAN一致性測試,就是要求整車CAN網絡中的節點都滿足
    的頭像 發表于 05-29 08:24 ?1590次閱讀
    為什么主機廠愈來愈重視CAN<b class='flag-5'>一致性</b>測試?