女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

從硬件引申出內存屏障,帶你深入了解Linux內核RCU

電子工程師 ? 來源:未知 ? 作者:佚名 ? 2017-09-19 11:39 ? 次閱讀

本文簡介

本文從硬件的角度引申出內存屏障,這不是內存屏障的詳盡手冊,但是相關知識對于理解RCU有所幫助。這不是一篇單獨的文章,這是《謝寶友:深入理解Linux RCU》系列的第2篇,前序文章:

謝寶友: 深入理解Linux RCU之一——從硬件說起

作者簡介

謝寶友,在編程一線工作已經有20年時間,其中接近10年時間工作于Linux操作系統。在中興通訊操作系統產品部工作期間,他作為技術總工參與的電信級嵌入式實時操作系統,獲得了行業最高獎----中國工業大獎。

同時,他也是《深入理解并行編程》一書的譯者。該書作者Paul E.McKeney是IBM Linux中心領導者,Linux RCU Maintainer。《深入理解RCU》系列文章整理了Paul E.McKeney的相關著作,希望能幫助讀者更深刻的理解Linux內核中非常難于理解的模塊----RCU。

聯系方式:

mail:[email protected]

微信:linux-kernel

稿件征集

歡迎您給Linuxer投稿,贏得人民郵電異步社區任意在售技術圖書。您隨便挑,詳情:Linuxer-"Linux開發者自己的媒體"首月稿件錄取和贈書名單

Linuxer-"Linux開發者自己的媒體"第二月稿件錄取和贈書名單

一、內存Cache還有哪些不足?

上一篇文章我們談到了內存Cache,并且描述了典型的Cache一致性協議MESICache的根本目的,是解決內存與CPU速度多達兩個數量級的性能差異。一個包含Cache的計算機系統,其結構可以簡單的表示為下圖:

僅僅只有Cache的計算機系統,它還存在如下問題:

1Cache的速度,雖然比內存有了極大的提升,但是仍然比CPU慢幾倍。

2、在發生“warmup cache miss”、“capacity miss”、“associativity miss”時,CPU必須等待從內存中讀取數據,此時CPU會處于一種Stall的狀態。其等待時間可能達到幾百個CPU指令周期。

顯然,這是現代計算機不能承受之重:)

二、Write buffer是為了解決什么問題?

如果CPU僅僅是執行foo = 1這樣的語句,它其實無須從內存或者緩存中讀取foo現在的值。因為無論foo當前的值是什么,它都會被覆蓋。在僅僅只有Cache的系統中,foo = 1 這樣的操作也會形成寫停頓。自然而然的,CPU設計者應當會想到在Cache CPU之間再添加一級緩存。由于這樣的緩存主要是應對寫操作引起的Cache Miss,并且緩存的數據與寫操作相關,因此CPU設計者將它命名為“Write buffer”。調整后的結構示意圖如下(圖中的store buffer即為write buffer):

通過增加這些Write bufferCPU可以簡單的將要保存的數據放到Write buffer 中,并且繼續運行,而不會真正去等待Cache從內存中讀取數據并返回

對于特定CPU來說,這些Write buffer是屬于本地的。或者在硬件多線程系統中,它對于特定核來說,是屬于本地的。無論哪一種情況,一個特定CPU僅僅允許訪問分配給它的Writebuffer。例如,在上圖中,CPU 0不能訪問CPU 1的存儲緩沖,反之亦然。

Write buffer進一步提升了系統性能,但是它也會為硬件設計者帶來一些困擾:

第一個困擾:違反了自身一致性。

考慮如下代碼:變量“a”和“b”都初始化為0,包含變量“a”緩存行,最初被CPU 1所擁有,而包含變量“b”的緩存行最初被CPU0所擁有:

1 a = 1;

2 b = a + 1;

3 assert(b == 2);

沒有哪一位軟件工程師希望斷言被觸發!

然而,如果采用上圖中的簡單系統結構,斷言確實會被觸發。理解這一點的關鍵在于:a最初被CPU 1所擁有,而CPU 0在執行a = 1時,將a的新值存儲在CPU 0Write buffer中。

在這個簡單系統中,觸發斷言的事件順序可能如下:

1CPU 0 開始執行a = 1

2CPU 0在緩存中查找“a”,并且發現緩存缺失。

3.因此,CPU 0發送一個讀使無效(read-invalidate message)消息,以獲得包含“a”的獨享緩存行。

4CPU 0“a”記錄到存儲緩沖區。

5CPU 1接收到讀使無效消息,它通過發送緩存行數據,并從它的緩存行中移除數據來響應這個消息。

6CPU 0開始執行b = a + 1

7CPU 0CPU 1接收到緩存行,它仍然擁有一個為“0”“a”值。

8CPU 0從它的緩存中讀取到“a”的值,發現其值為0

9CPU 0將存儲隊列中的條目應用到最近到達的緩存行,設置緩存行中的“a”的值為1

10CPU 0將前面加載的“a”01,并存儲該值到包含“b”的緩存行中(假設已經被CPU 0所擁有)。

11CPU 0 執行assert(b == 2),并引起錯誤。

針對這種情況,硬件設計者對軟件工程師還是給予了必要的同情。他們會對系統進行稍許的改進,如下圖:

在調整后的架構中,每個CPU在執行加載操作時,將考慮(或者嗅探)它的Writebuffer。這樣,在前面執行順序的第8步,將在存儲緩沖區中為“a”找到正確的值1 ,因此最終的“b”值將是2,這正是我們期望的。

Write buffer帶來的第二個困擾,是違反了全局內存序。考慮如下的代碼順序,其中變量“a”、“b”的初始值是0

1 void foo(void)

2 {

3 a = 1;

4 b = 1;

5 }

6

7 void bar(void)

8 {

9 while (b == 0) continue;

10 assert(a == 1);

11 }

假設CPU 0執行foo()CPU1執行bar(),再進一步假設包含“a”的緩存行僅僅位于CPU1的緩存中,包含“b”的緩存行被CPU 0所擁有。那么操作順序可能如下:

1CPU 0 執行a = 1。緩存行不在CPU0的緩存中,因此CPU0將“a”的新值放到Write buffer,并發送一個“讀使無效”消息。

2CPU 1 執行while (b == 0) continue,但是包含“b”的緩存行不在它的緩存中,因此它發送一個“讀”消息。

3CPU 0 執行 b = 1,它已經擁有了該緩存行(換句話說,緩存行要么已經處于“modified”,要么處于“exclusive”狀態),因此它存儲新的“b”值到它的緩存行中。

4CPU 0 接收到“讀”消息,并且發送緩存行中的最近更新的“b”的值到CPU1,同時將緩存行設置為“shared”狀態。

5CPU 1 接收到包含“b”值的緩存行,并將其值寫到它的緩存行中。

6CPU 1 現在結束執行while (b ==0) continue,因為它發現“b”的值是1,它開始處理下一條語句。

7CPU 1 執行assert(a == 1),并且,由于CPU 1工作在舊的“a”的值,因此斷言驗證失敗。

8CPU 1 接收到“讀使無效”消息,并且發送包含“a”的緩存行到CPU 0,同時在它的緩存中,將該緩存行變成無效。但是已經太遲了。

9CPU 0 接收到包含“a”的緩存行,并且及時將存儲緩沖區的數據保存到緩存行中,CPU1的斷言失敗受害于該緩存行。

請注意,“內存屏障”已經在這里隱隱約約露出了它鋒利的爪子!!!!

三、使無效隊列又是為了解決什么問題?

一波未平,另一波再起。

問題的復雜性還不僅僅在于Writebuffer,因為僅僅有Write buffer,硬件還會形成嚴重的性能瓶頸。

問題在于,每一個核的Writebuffer相對而言都比較小,這意味著執行一段較小的存儲操作序列的CPU,很快就會填滿它的Writebuffer。此時,CPU在能夠繼續執行前,必須等待Cache刷新操作完成,以清空它的Write buffer

清空Cache是一個耗時的操作,因為必須要在所在CPU之間廣播MESI消息(使無效消息),并等待對這些MESI消息的響應。為了加快MESI消息響應速度,CPU設計者增加了使無效隊列。也就是說,CPU將接收到的使無效消息暫存起來,在發送使無效消息應答時,并不真正將Cache中的值無效。而是等待在合適的時候,延遲使無效操作。

下圖是增加了使無效隊列的系統結構:

將一個條目放進使無效隊列,實際上是由CPU承諾:在發送任何與該緩存行相關的MESI協議消息前,處理該條目。在Cache競爭不太劇烈的情況下,CPU會很出色地完成此事。

使無效隊列帶來的問題是:在沒有真正將Cache無效之前,就告訴其他CPU已經使無效了。這多少有一點欺騙的意思。然而現代CPU確實是這樣設計的。

這個事實帶來了額外的內存亂序的機會,看看如下示例:

假設“a”和“b”被初始化為0,“a”是只讀的(MESIshared”狀態),“b”被CPU 0擁有(MESIexclusive”或者“modified”狀態)。然后假設CPU 0執行foo()CPU1執行bar(),代碼片段如下:

1 void foo(void)

2 {

3 a = 1;

4 smp_mb();

5 b = 1;

6 }

7

8 void bar(void)

9 {

10 while (b == 0) continue;

11 assert(a == 1);

12 }

操作順序可能如下:

1CPU 0執行a = 1。在CPU0中,相應的緩存行是只讀的,因此CPU 0將“a”的新值放入存儲緩沖區,并發送一個“使無效”消息,這是為了使CPU1的緩存中相應的緩存行失效。

2CPU 1執行while (b == 0)continue,但是包含“b”的緩存行不在它的緩存中,因此它發送一個“讀”消息。

3CPU 1接收到CPU 0的“使無效”消息,將它排隊,并立即響應該消息。

4CPU 0接收到來自于CPU 1的響應消息,因此它放心的通過第4行的smp_mb(),從存儲緩沖區移動“a”的值到緩存行。

5CPU 0執行b = 1。它已經擁有這個緩存行(也就是說,緩存行已經處于“modified”或者“exclusive”狀態),因此它將“b”的新值存儲到緩存行中。

6CPU 0接收到“讀”消息,并且發送包含“b”的新值的緩存行到CPU 1,同時在自己的緩存中,標記緩存行為“shared”狀態。

7CPU 1接收到包含“b”的緩存行并且將其應用到本地緩存。

8CPU 1現在可以完成while (b ==0) continue,因為它發現“b”的值為1,接著處理下一條語句。

9CPU 1執行assert(a == 1),并且,由于舊的“a”值還在CPU 1的緩存中,因此陷入錯誤。

10.雖然陷入錯誤,CPU 1處理已經排隊的“使無效”消息,并且(遲到)在自己的緩存中刷新包含“a”值的緩存行。

四、內存屏障

既然硬件設計者通過Write buffer和使無效隊列引入了額外的內存亂序問題,那么就應當為軟件工程師提供某種方法來解決這個問題。即使相應的解決方法會折磨軟件工程師。

答案就是內存屏障。對于Linux內核資深工程師來說,這個答案也顯得比較沉重,它太折磨人了:)

我們先看看Write buffer一節中,觸發斷言的例子,應該怎么修改。

在那個例子中,硬件設計者不能直接幫助我們,因為 CPU沒有辦法識別那些相關聯的變量(例子中的ab),更不用說它們如何關聯。因此,硬件設計者提供內存屏障指令,以允許軟件告訴CPU這些關系的存在。程序必須修改,以包含內存屏障:

1 void foo(void)

2 {

3 a = 1;

4 smp_mb();

5 b = 1;

6 }

7

8 void bar(void)

9 {

10 while (b == 0) continue;

11 assert(a == 1);

12 }

內存屏障smp_mb()將導致CPU在刷新后續的緩存行(包含b的緩存行)之前,前面的Write buffer被先刷新。在繼續處理之前,CPU可能采取的動作是:

1、簡單的停頓下來,直到存儲緩沖區變成空;

2、也可能是使用存儲緩沖區來持有后續的存儲操作,直到前面所有的存儲緩沖區已經被保存到緩存行中。

理解其中第2點,能夠幫助我們理解“內存屏障”這個單詞的來歷!!

后一種情況下,操作序列可能如下所示:

1CPU 0執行a= 1。緩存行不在CPU0的緩存中,因此CPU 0將“a”的新值放到存儲緩沖中,并發送一個“讀使無效”消息。

2CPU 1 執行while(b == 0) continue,但是包含“b”的緩存行不在它的緩存中,因此它發送一個“讀”消息。

3CPU 0執行smp_mb(),并標記當前所有存儲緩沖區的條目。(也就是說a = 1這個條目)。

4CPU 0執行b= 1。它已經擁有這個緩存行了。(也就是說, 緩存行已經處于“modified”或者“exclusive”狀態),但是在存儲緩沖區中存在一個標記條目。因此,它不將“b”的新值存放到緩存行,而是存放到存儲緩沖區中。(但是“b”不是一個標記條目)。

5CPU 0接收“讀”消息,隨后發送包含原始“b”值的緩存行給CPU1。它也標記該緩存行的復制為“shared”狀態。

6CPU 1讀取到包含“b”的緩存行,并將它復制到本地緩存中。

7CPU 1現在可以裝載“b”的值了,但是,由于它發現其值仍然為“0”,因此它重復執行while語句。“b”的新值被安全的隱藏在CPU0的存儲緩沖區中。

8CPU 1接收到“讀使無效”消息,發送包含“a”的緩存行給CPU 0,并且使它的緩存行無效。

9CPU 0接收到包含“a”的緩存行,使用存儲緩沖區的值替換緩存行,將這一行設置為“modified”狀態。

10.由于被存儲的“a”是存儲緩沖區中唯一被smp_mb()標記的條目,因此CPU0能夠存儲“b”的新值到緩存行中,除非包含“b”的緩存行當前處于“shared”狀態。

11CPU 0發送一個“使無效”消息給CPU 1

12CPU 1接收到“使無效”消息,使包含“b”的緩存行無效,并且發送一個“使無效應答”消息給 CPU 0

13CPU 1執行while(b == 0) continue,但是包含“b”的緩存行不在它的緩存中,因此它發送一個“讀”消息給 CPU 0

14CPU 0接收到“使無效應答”消息,將包含“b”的緩存行設置成“exclusive”狀態。CPU 0現在存儲新的“b”值到緩存行。

15CPU 0接收到“讀”消息,同時發送包含新的“b”值的緩存行給 CPU 1。它也標記該緩存行的復制為“shared”狀態。

16CPU 1接收到包含“b”的緩存行,并將它復制到本地緩存中。

17CPU 1現在能夠裝載“b”的值了,由于它發現“b”的值為1,它退出while循環并執行下一條語句。

18CPU 1執行assert(a== 1),但是包含“a”的緩存行不在它的緩存中。一旦它從CPU0獲得這個緩存行,它將使用最新的“a”的值,因此斷言語句將通過。

正如你看到的那樣,這個過程涉及不少工作。即使某些事情從直覺上看是簡單的操作,就像“加載a的值”這樣的操作,都會包含大量復雜的步驟。

前面提到的,其實是寫端的屏障,它解決Write buffer引入的內存亂序。接下來我們看看讀端的屏障,它解決使無效隊列引入的內存亂序。

要避免使無效隊列例子中的錯誤,應當再使用讀端內存屏障:

讀端內存屏障指令能夠與使無效隊列交互,這樣,當一個特定的CPU執行一個內存屏障時,它標記無效隊列中的所有條目,并強制所有后續的裝載操作進行等待,直到所有標記的條目都保存到CPUCache中。因此,我們可以在bar函數中添加一個內存屏障,如下:

1 void foo(void)

2 {

3 a = 1;

4 smp_mb();

5 b = 1;

6 }

7

8 void bar(void)

9 {

10 while (b == 0) continue;

11 smp_mb();

12 assert(a == 1);

13 }

有了這個變化后,操作順序可能如下:

1CPU 0執行a= 1。相應的緩存行在CPU0的緩存中是只讀的,因此CPU0將“a”的新值放入它的存儲緩沖區,并且發送一個“使無效”消息以刷新CPU1相應的緩存行。

2CPU 1 執行while(b == 0) continue,但是包含“b”的緩存行不在它的緩存中,因此它發送一個“讀”消息。

3CPU 1 接收到 CPU 0的“使無效”消息,將它排隊,并立即響應它。

4CPU 0 接收到CPU1的響應,因此它放心的通過第4行的smp_mb()語句,將“a”從它的存儲緩沖區移到緩存行。

5CPU 0 執行b= 1。它已經擁有該緩存行(換句話說, 緩存行已經處于“modified”或者“exclusive”狀態),因此它存儲“b”的新值到緩存行。

6CPU 0 接收到“讀”消息,并且發送包含新的“b”值的緩存行給CPU1,同時在自己的緩存中,標記緩存行為“shared”狀態。

7CPU 1 接收到包含“b”的緩存行并更新到它的緩存中。

8CPU 1 現在結束執行while (b == 0) continue,因為它發現“b”的值為 1,它處理下一條語句,這是一條內存屏障指令。

9CPU 1 必須停頓,直到它處理完使無效隊列中的所有消息。

10CPU 1 處理已經入隊的“使無效”消息,從它的緩存中使無效包含“a”的緩存行。

11CPU 1 執行assert(a== 1),由于包含“a”的緩存行已經不在它的緩存中,它發送一個“讀”消息。

12CPU 0 以包含新的“a”值的緩存行響應該“讀”消息。

13CPU 1 接收到該緩存行,它包含新的“a”的值1,因此斷言不會被觸發。

即使有很多MESI消息傳遞,CPU最終都會正確的應答。這一節闡述了CPU設計者為什么必須格外小心地處理它們的緩存一致性優化操作。

但是,這里真的需要一個讀端內存屏障么?在assert()之前,不是有個循環么?

難道在循環結束之前,會執行assert(a == 1)

對此有疑問的讀者,您需要補充一點關于猜測(冒險)執行的背景知識!可以找CPU參考手冊看看。簡單的說,在循環的時候,a== 1這個比較條件,有可能會被CPU預先加載a的值到流水線中。臨時結果不會被保存到Cache或者Write buffer中,而是在CPU流水線中的臨時結果寄存器中暫存起來

這是不是非常的反直覺?然而事實就是如此。

CPU世界中反直覺的東西有興趣的朋友,甚至可以看看量子力學方面的書,量子計算機真的需要懂量子力學。讓《深入理解并行編程》一書中提到的“薛定諤的貓”來燒一下腦,這只貓已經折磨了無數天才的大腦。除了霍金,還有愛因斯坦的大腦!

五、關于內存屏障進一步的思考

本文僅僅從硬件的角度,引申出內存屏障。其目的是為了后續文章中,更好的講解RCU。因此,并不會對內存屏障進行深入的剖析。但是,對于理解RCU來說,本文中的內存屏障知識已經可以了。

更深入的思考包括:

1、讀屏障、寫屏障、讀依賴屏障的概念

2、各個體系架構中,屏障的實現、及其微妙的差別

3、深入思考內存屏障是否是必須的,有沒有可能通過修改硬件,讓屏障不再有用?

4、內存屏障的傳遞性,這是Linux系統中比較微妙而難于理解的概念。

5、單核架構中的屏障,是為了解決什么問題?怎么使用?

6、屏障在內核同步原語中的使用,滿足了什么樣的同步原語語義?


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • Linux
    +關注

    關注

    87

    文章

    11456

    瀏覽量

    212750
  • 內存屏障
    +關注

    關注

    0

    文章

    3

    瀏覽量

    1787
  • rcu
    rcu
    +關注

    關注

    0

    文章

    21

    瀏覽量

    5577

原文標題:謝寶友:深入理解Linux RCU:從硬件說起之內存屏障

文章出處:【微信號:LinuxDev,微信公眾號:Linux閱碼場】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    謝寶友教你學Linux深入理解Linux RCU硬件說起

    RCULinux內核中很難的一部分,本系列文章一點一滴地來把RCU說清楚。第一次連載,是描述硬件
    的頭像 發表于 09-04 10:29 ?6185次閱讀
    謝寶友教你學<b class='flag-5'>Linux</b>:<b class='flag-5'>深入</b>理解<b class='flag-5'>Linux</b> <b class='flag-5'>RCU</b>之<b class='flag-5'>從</b><b class='flag-5'>硬件</b>說起

    基于Linux內核源碼的RCU實現方案

    RCU(Read-Copy Update)是數據同步的一種方式,在當前的Linux內核中發揮著重要的作用。RCU主要針對的數據對象是鏈表,目的是提高遍歷讀取數據的效率,為了達到目的使用
    的頭像 發表于 09-25 15:10 ?2753次閱讀

    走進Linux內存系統探尋內存管理的機制和奧秘

    Linux 內存是后臺開發人員,需要深入了解的計算機資源。合理的使用內存,有助于提升機器的性能和穩定性。本文主要介紹Linux
    的頭像 發表于 01-05 09:47 ?1879次閱讀

    深入理解Linux RCU硬件說起之內存屏障

    上一篇文章我們談到了內存Cache,并且描述了典型的Cache一致性協議MESI。Cache的根本目的,是解決內存與CPU速度多達兩個數量級的性能差異。
    的頭像 發表于 12-25 13:42 ?1163次閱讀
    <b class='flag-5'>深入</b>理解<b class='flag-5'>Linux</b> <b class='flag-5'>RCU</b>:<b class='flag-5'>從</b><b class='flag-5'>硬件</b>說起之<b class='flag-5'>內存</b><b class='flag-5'>屏障</b>

    Linux內核RCU的用法

    Linux內核中,RCU最常見的用途是替換讀寫鎖。在20世紀90年代初期,Paul在實現通用RCU之前,實現了一種輕量級的讀寫鎖。后來,為這個輕量級讀寫鎖原型所設想的每個用途,最終都
    的頭像 發表于 12-27 09:56 ?2395次閱讀
    <b class='flag-5'>Linux</b><b class='flag-5'>內核</b>中<b class='flag-5'>RCU</b>的用法

    一文帶你深入了解linux驅動

    根本都不知道這個佛是哪一路神仙。 那今天我們就先帶大家來深入了解下嵌入式開發中至關重要的一環:linux驅動。 在學習驅動之前,我們首先來了解下操作系統。 # 操作系統OPERATING SYSTEM
    發表于 04-15 09:59

    帶你深入了解光耦

    電子發燒友網帶你深入了解光耦相關知識,講述光耦的作用,光耦原理及各種光耦型號和替代型號,讓大家全面了解光電耦合器
    發表于 03-16 16:43
    <b class='flag-5'>帶你</b><b class='flag-5'>深入了解</b>光耦

    linux內核rcu機制詳解

    Linux內核源碼當中,關于RCU的文檔比較齊全,你可以在 /Documentation/RCU/ 目錄下找到這些文件。Paul E. McKenney 是
    發表于 11-13 16:47 ?8948次閱讀
    <b class='flag-5'>linux</b><b class='flag-5'>內核</b><b class='flag-5'>rcu</b>機制詳解

    了解IC內部結構嗎本文帶你深入了解

    本文檔的主要內容詳細介紹的是IC內部結構 你了解IC內部結構嗎本文帶你深入了解
    的頭像 發表于 03-09 11:33 ?1.2w次閱讀
    你<b class='flag-5'>了解</b>IC內部結構嗎本文<b class='flag-5'>帶你</b><b class='flag-5'>深入了解</b>

    深入了解RCU是怎樣實現的?

    RCU(Read-Copy Update),顧名思義就是讀-拷貝修改,它是基于其原理命名的。對于被RCU保護的共享數據結構,讀者不需要獲得任何鎖就可以訪問它,但寫者在訪問它時首先拷貝一個副本,然后
    發表于 05-14 17:37 ?1.4w次閱讀
     <b class='flag-5'>深入了解</b><b class='flag-5'>RCU</b>是怎樣實現的?

    可以了解并學習Linux 內核的同步機制

    Linux內核同步機制,挺復雜的一個東西,常用的有自旋鎖,信號量,互斥體,原子操作,順序鎖,RCU內存屏障等。
    發表于 05-14 14:10 ?807次閱讀

    了解了解Linux內核中的RCU機制

    RCU的設計思想比較明確,通過新老指針替換的方式來實現免鎖方式的共享保護。但是具體到代碼的層面,理解起來多少還是會有些困難。在《深入Linux設備驅動程序內核機制》第4章中,已經非常明
    發表于 05-14 14:28 ?1434次閱讀

    一文帶你深入了解KVM的基本原理

    一、 概述 KVM的全稱是Kernel-based Virtual Machine,其是一種基于linux內核的采用硬件輔助虛擬化技術的全虛擬化解決方案。它最初由以色列的初創公司Qumranet開發
    的頭像 發表于 10-20 09:33 ?6198次閱讀
    一文<b class='flag-5'>帶你</b><b class='flag-5'>深入了解</b>KVM的基本原理

    帶你深入了解示波器

    帶你深入了解示波器
    發表于 02-07 14:26 ?19次下載

    Linux內核內存屏障的原理和用法分析

    圈里流傳著一句話“珍愛生命,遠離屏障”,這足以說明內存屏障是一個相當晦澀和難以準確把握的東西。使用過弱的屏障,會導致軟件不穩定。
    的頭像 發表于 09-05 09:13 ?2322次閱讀