女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

CXL對數據中心的意義

sakobpqhz6 ? 來源:IC學習 ? 作者:IC學習 ? 2022-12-05 15:43 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

CXL(Compute Express Link)將成為一種變革性技術,將重新定義數據中心的架構和構建方式。這是因為 CXL 為跨芯片的緩存一致性、內存擴展和內存池提供了標準化協議。在本文中,我們將重點介紹微軟正在做的事情,以幫助大家了解CXL對數據中心的意義。

數據中心是一件非常昂貴的事情。微軟表示,他們高達50% 的服務器成本僅來自 DRAM。所需的資本支出是巨大的,但您構建的服務器并不是同質的。工作負載不是靜態的。它們在不斷地成長和進化。計算資源、DRAM、NAND 和網絡類型的組合將根據工作負載而變化。

一刀切的模式是行不通的,這就是為什么您會看到云提供商擁有數十種甚至數百種不同的實例類型。這些正在嘗試針對不同的工作負載優化硬件產品。即便如此,許多用戶最終還是為他們真正不需要的東西付費。

實例選擇并不完美,這些實例與硬件的匹配也不完美。隨之而來的是平臺級內存擱淺問題。服務器配置為不合適的實例類型場景。

3e4df38a-73ac-11ed-8abf-dac502259ad0.png

這個問題的解決方案是內存池。多個服務器可以共享一部分內存,并且可以動態地將其分配給不同的服務器。與其過度地配置服務器,不如將它們配置為更接近平均 DRAM 與內核的比率,并且可以通過內存池來解決客戶的過多 DRAM 需求。此內存池將通過 CXL 協議進行通信。未來,隨著對 CXL 協議的修訂,服務器甚至可以共享相同的內存來處理相同的工作負載,這將進一步減少 DRAM 需求。

擁有大規模應用程序的復雜運營商可以通過向其開發人員提供具有不同帶寬和延遲的多層內存來解決這個問題。這對于亞馬遜、谷歌、微軟和其他公司運營的公共云環境來說是站不住腳的。

Microsoft 概述了與公共云環境中的內存池有關的 3 個主要功能挑戰。無法修改客戶工作負載,包括guest操作系統。內存池系統還必須與虛擬化加速技術兼容,例如直接將 I/O 設備分配給 VM 和 SR-IOV。池化還必須可用于商用硬件。

在過去他們也試過內存池,但它需要自定義硬件設計、更改 VM guest并依賴頁面錯誤。這種組合使其無法部署在云中。這就是 CXL 的用武之地。英特爾AMD 和多個 Arm 合作伙伴已經加入了該標準。帶有 CXL 的 CPU 將于今年晚些時候開始問世。此外,三星、美光和 SKHynix 三大 DRAM 制造商也都承諾支持該標準。

即使有硬件供應商的廣泛支持,仍有很多問題需要回答。在硬件方面:應該如何構建內存池以及如何平衡池大小與較大池的較高延遲?在軟件方面:如何管理這些池并將池暴露給guest操作系統,云工作負載可以容忍多少額外的內存延遲?

在分布層:提供者應如何在具有 CXL 內存的機器上調度 VM,內存中的哪些項目應存儲在池中與直接連接的內存中,它們能否預測內存行為和延遲敏感性有助于產生更好的性能,如果是,準確度如何這些是預測嗎?

微軟提出了這些問題,并試圖回答這些問題。我們將在這里概述他們的發現。他們的第一代的解決方案架構取得了令人印象深刻的成果。

隨著未來 CXL 版本的推出和延遲降低,這些收益可能會進一步擴大。

首先是硬件層。Microsoft 使用直接連接到 8 到 32 個插槽 CPU 的多端口外部存儲器對此進行了測試。內存擴展是通過連接 CXL 的外部內存控制器 (EMC) 完成的,該控制器具有四個 80 位 ECC DDR5 池 DRAM 通道和多個 CXL 鏈路,以允許多個 CPU 插槽訪問內存。此 EMC 管理請求并跟蹤分配給各個主機的各個內存區域的所有權。

3e7248fc-73ac-11ed-8abf-dac502259ad0.png

CXL x8 通道的帶寬約為 DDR5 內存通道的帶寬。每個 CPU 都有自己更快的本地內存,但它也可以訪問具有更高延遲的 CXL 池化內存,相當于單個 NUMA 躍點。跨 CXL 控制器和 PHY、可選重定時器、傳播延遲和外部存儲器控制器的延遲增加了 67ns 到 87ns。

下圖顯示了當前本地 DRAM 的固定百分比(10%、30% 和 50%)切換到池化資源。池化內存與本地內存的百分比越大,節省的 DRAM 就越多。就 DRAM 節省而言,增加Socket數量會很快消失。

3e99762a-73ac-11ed-8abf-dac502259ad0.png

雖然更大的池大小和更多的socket看起來是最好的選擇,但這里有更多的性能和延遲影響。如果池大小降為 4 到 8 個 CPU 插槽,則不需要重定時器。這將延遲從 87ns 降低到 67ns。此外,在這些較小的插槽數中,EMC 可以直接連接到所有 CPU 插槽。

更大的 32 個插槽池將 EMC 連接到不同的 CPU 子集。這將允許在更多數量的 CPU 插槽之間共享,同時保持 CPU 端口的 EMC 設備數量固定。這里需要重定時器,這導致每個方向的延遲為 10ns。

3ecb2012-73ac-11ed-8abf-dac502259ad0.png

在軟件方面,解決方案相當巧妙。

Microsoft 經常部署多插槽系統。在大多數情況下,VM 足夠小,它們完全適合單個 NUMA 節點、內核和內存。Azure 的管理程序嘗試將所有核心和內存放在單個 NUMA 節點上,但在極少數情況下(2% 的時間),VM 有一部分資源跨越socket。這不會暴露給用戶。

內存池在功能上的工作方式相同。內存設備將作為零核虛擬 zNUMA 節點公開,沒有內核,只有內存。內存偏離這個 zNUMA 內存節點,但允許溢出。粒度(granularity)是每片內存 1GB 。

分布式系統軟件層依賴于對 VM 的內存延遲敏感度的預測。未觸及的存儲被稱為“frigid memory”。Azure 估計第 50 個百分位的 VM 具有 50% 的冷(frigid)內存。這個數字似乎很圓。預計對內存延遲不敏感的 VM 完全支持池 DRAM。為內存敏感的 VM 配置了一個 zNUMA 節點,僅用于它們的冷內存。預測是在虛擬機部署時完成的,但它是異步管理的,并在檢測到預測不正確時更改虛擬機放置。

這些算法的準確性對于節省基礎設施成本至關重要。如果操作不當,性能影響可能會很大。

3f01ce6e-73ac-11ed-8abf-dac502259ad0.png

考慮到潛在的性能影響可能是巨大的,將云居民(cloud resident)的內存移動到 67ns 到 87ns 的池中是非常糟糕的。

因此,Microsoft 在兩種情況下對 158 個工作負載進行了基準測試。一種是只有本地 DRAM 的控制。另一個是模擬 CXL 內存。應該強調的是,盡管英特爾早前聲稱其支持 Sapphire Rapids CXL 的平臺將于 2021 年底推出。或者聲稱 Sapphire Rapids 將于 2022 年初推出。因此,微軟必須模擬延遲影響。Microsoft 使用了 2 路 24C Skylake SP 系統。

3f4d6dd8-73ac-11ed-8abf-dac502259ad0.png

當帶寬超過 80GB/s 時,內存訪問延遲為 78ns。當一個 CPU 跨 NUMA 邊界訪問另一個 CPU 的內存時,會導致額外的 64ns 內存延遲。這非常接近外部存儲設備 (EMC) 在低插槽數系統中的 67ns 額外延遲。

20% 的工作負載沒有性能影響。另有 23% 的工作負載出現了不到 5% 的減速。25% 的工作負載嚴重減速,性能下降超過 20%,其中 12% 的工作負載甚至出現超過 30% 的性能下降。根據工作負載的本地與池內存量,該數字會發生相當大的變化。

3f8cdcfc-73ac-11ed-8abf-dac502259ad0.png

這進一步強調了預測模型的重要性。Microsoft 的基于隨機森林(random forest) ML 的預測模型更準確,并且產生的誤報減速更少。隨著更多的內存被池化,越多變得越重要。

隨著 CXL 規范的改進、延遲的降低和預測模型的改進,內存池節省的可能性可能會增長到云服務器成本的兩位數百分比

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 芯片
    +關注

    關注

    459

    文章

    52471

    瀏覽量

    440426
  • NAND
    +關注

    關注

    16

    文章

    1722

    瀏覽量

    138107
  • 數據中心
    +關注

    關注

    16

    文章

    5222

    瀏覽量

    73486

原文標題:為什么看好CXL?一文看懂!

文章出處:【微信號:IC學習,微信公眾號:IC學習】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    數據中心都在用的差分晶振,看完你就懂了

    數據中心
    FCom富士晶振
    發布于 :2025年05月30日 13:12:30

    數據中心液冷技術和風冷技術的比較

    近年來,隨著數字經濟的蓬勃發展,數據中心建設規模不斷擴大,導致機房單位面積功耗居高不下,對數據中心散熱制冷技術提出了更高的要求。同時,根據國家對數據中心的節能要求,全國范圍內新建數據中心
    的頭像 發表于 05-09 09:41 ?851次閱讀
    <b class='flag-5'>數據中心</b>液冷技術和風冷技術的比較

    適用于數據中心和AI時代的800G網絡

    和性能隔離能力,以保障不同用戶任務互不干擾。 分布式AI計算與網絡架構設計 分布式計算已成為AI訓練的主流方式,通過將工作負載分配到多個GPU節點并行處理,以加速模型訓練。這對數據中心網絡架構
    發表于 03-25 17:35

    優化800G數據中心:高速線纜、有源光纜和光纖跳線解決方案

    隨著技術的飛速發展,數據中心正在從100G和400G演進到800G時代,對高速數據傳輸的需求與日俱增。因此,選擇高效且可靠的布線解決方案對于800G數據中心至關重要。本文將深入探討800G數據
    發表于 03-24 14:20

    速看!Atlassian云版與數據中心版的創新進展

    數據中心
    龍智DevSecOps
    發布于 :2024年11月22日 17:29:05

    人工智能對數據中心的挑戰

    在加密貨幣和人工智能/機器學習(AI/ML)等新興應用的驅動下,數據中心的能耗巨大,并將快速增長以滿足用戶需求。根據國際能源署(IEA)的最新報告,2022 年數據中心的耗電量將達到 460 TWh
    的頭像 發表于 11-13 16:05 ?776次閱讀
    人工智能<b class='flag-5'>對數據中心</b>的挑戰

    這4個工作能讓數據中心保持長期穩定運行

    數據中心運維的工作主要是對數據中心各項管理對象進行系統的計劃、組織、協調與控制,是信息系統服務有關各項管理工作的總稱,具體包括對機房環境基礎設施部分的維護,系統與數據維護,管理工具的使用,人員的管理
    的頭像 發表于 11-13 09:58 ?495次閱讀

    當今數據中心新技術趨勢

    計算 數據中心的首要趨勢是追求更高的效能和性能。隨著數字化轉型的深入推進,各行業對數據中心的處理能力和存儲容量提出了更高要求。為了滿足這些需求,數據中心正不斷引入新技術,如高性能計算(HPC)和人工智能加速技術
    的頭像 發表于 10-24 15:15 ?981次閱讀

    數據中心對MOS管性能的要求

    數據中心作為現代信息技術的核心基礎設施,承載著數據存儲、處理和傳輸的重要任務。在這些任務中,MOS管(金屬氧化物半導體場效應晶體管)作為關鍵的電子元件,其性能對數據中心的整體效率和穩定性起著至關重要的作用。本文將詳細探討
    的頭像 發表于 10-11 11:22 ?701次閱讀

    怎樣保障數據中心不間斷電源不斷電 提供可靠安全的供配電#數據中心

    數據中心配電系統
    安科瑞王金晶
    發布于 :2024年08月29日 14:51:36

    數據中心使用智能負載組是個好主意#負載 #負載組

    數據中心
    深圳崧皓電子
    發布于 :2024年08月19日 07:43:30

    混合冷卻在數據中心中仍將是必不可少的#混合冷卻

    數據中心
    深圳崧皓電子
    發布于 :2024年08月06日 06:58:06

    數據中心能耗較多 如何科學智慧化進行整體解決方案呢

    節能的意義,*點介紹了常用的數據中心節能措施,并以北方某數據中心為例說明常用的數據中心措施的優點。首先對數據中心能耗結構進行分析,然后根據*
    的頭像 發表于 07-29 16:58 ?589次閱讀
    <b class='flag-5'>數據中心</b>能耗較多 如何科學智慧化進行整體解決方案呢