女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

數據中心(相比終端)系統的特點

倩倩 ? 來源:算力基建 ? 作者:算力基建 ? 2022-08-23 14:44 ? 次閱讀

DPU芯片,跟之前的GPUAI芯片最大的不同在于,DPU是集成多種領域加速于一體的集成加速平臺。如果說GPU、AI加速芯片,是CPU+xPU單個異構計算的分離趨勢,那么DPU的出現,則預示著,整個計算系統,在從單異構的分離逐漸走向多異構的融合。 當然,DPU僅僅只是開始,更加充分的融合,將在本文詳細分析和介紹。

01數據中心(相比終端)系統的特點

1.1 軟件業務和硬件平臺分離

數據中心軟件有一個非常重要的要求,就是高可用性(High Availability,HA)。比如通過負載均衡器實現后端服務的高可用,負載均衡器本身也是通過集群機制實現自身的高可用。底層的VM通過熱遷移實現高可用,容器則是通過在新的環境自動拉起新實例來實現容器的高可用。

f6a55312-21fc-11ed-ba43-dac502259ad0.png

如果我們關注底層軟件和硬件,我們會發現,實際運行的軟件(不考慮虛擬化部分,虛擬化實際上是介于軟件和硬件之間,通過軟硬件協同實現的虛擬化機制)和硬件實際上是完全脫離的:

軟件實體可以在不同的硬件平臺上運行,可以實時遷移,上層的軟件以為軟件實體一直是高可用的,感受不到底層硬件的變化(硬件有可能磁盤故障、死機或者是更新服務器等)。

完整的單個硬件平臺通過虛擬化,可以靈活地切分成許多虛擬的硬件平臺,可以支持不同的軟件實體運行。

1.2 單服務器的虛擬化、多系統、多租戶,全數據中心多集群系統交叉混合

f6b7f030-21fc-11ed-ba43-dac502259ad0.png

我們之前講過,系統分為四類,跟智能終端系統相比,云和邊緣數據中心的系統最大特點是虛擬化和服務化,數據中心服務器和終端設備系統最大的區別在于:

首先,通過虛擬化實現多系統多租戶共存于單個硬件平臺。硬件平臺需要支持虛擬化和高擴展性,提供多個個性化的虛擬硬件平臺。然后需要支持多個不同甚至迥異的軟件系統,運行在各自獨立的虛擬硬件平臺上。

另一個,終端系統當做單個系統的話,那么數據中心服務器則是多個系統混合運行。這樣,我們可以把支持虛擬化多系統多租戶運行的服務器運行的系統定義為宏系統。

單個服務器是多系統多租戶運行的宏系統,那么整個數據中心或多個數據中心連成一體的數以十萬、甚至百萬級服務器組成的超大型集群;其上運行的系統,就完全變成了,不同租戶的多種集群系統混合交叉在一起,并行不悖運行的超大型多宏系統。

1.3 物理硬件的一致性和虛擬“硬件”的多樣性

很多做硬件的同學,不由自主的,會很喜歡搞硬件“創新”。比如:

通過PCIe Switch,連接不同數量不同規格的CPU、GPU以及存儲盤、網卡等I/O設備,組成形態各異的多種類型的硬件服務器;

通過智能網卡、DPU等強大的能力,實現不同規格、不同性能的多計算節點的自由組合;

還有,通過TOR的功能增強,把許多DPU的工作放到TOR交換機,實現Smart TOR或者TOR-DPU的方式,來實現系統能力的增強;

其他各種硬件創新項目。

f6c6e55e-21fc-11ed-ba43-dac502259ad0.png

但我個人一直的觀點是:硬件需要盡可能的簡單,通過軟件去實現各種復雜多樣性。比如,數據中心不宜有不同層次不同規格的服務器和網絡設備,而是極致簡單清晰的就計算節點和網絡核心設備兩種物理設備類型:

計算節點,即服務器,核心功能是計算和各類數據的處理,其網絡功能,盡可能只體現在輸入輸出時的高性能網絡。

交換機,作為高效的網絡核心設備,專注網絡的相關處理,盡可能少地參與到用戶的計算,保持對用戶計算的透明。

在AWS的官網中介紹Nitro系統優勢的時候,首先提到的就是“更快的創新”: Nitro System 將各種各樣的構建基塊集合,且可按照不同方式進行組合,從而讓我們能夠通過不斷擴展的計算、存儲、內存和網絡選項,靈活設計并快速交付 EC2 云服務器實例類型。 這項創新還促成了裸機實例,客戶可以在這些實例中使用自己的管理程序或不需要使用任何管理程序。 這句話的意思,我再給大家進一步解釋一下:AWS首先通過Nitro系統可以完全抵消虛擬化的各種軟件開銷,完全實現了虛擬化的硬件加速。然后可以非常方便的把一臺服務器的CPU資源、加速器資源、內存資源、I/O資源以及其他各種資源完全的虛擬化,然后就可以隨意的重新組合,然后可以快速而高效的給用戶提供形態各異的虛擬機實例,實例類型如計算優化型、內存優化型、存儲優化型、網絡優化型、GPU/FPGA/DSA加速優化型等。 總結一下,站在云計算公司的視角,CSP希望的是盡可能簡單的并且自己可以掌控一切的數據中心網絡架構,希望的是盡可能簡單的、一致的服務器硬件規格(這樣,運維才最簡單并且系統的穩定性才最高),然后通過(軟件的)虛擬化機制,實現多種多樣的(軟件)虛擬硬件平臺,來支撐VM和容器的運行。

02數據中心處理器

從合到分,再從分到合

2.1 再來學習一下馮諾依曼架構

f6d4681e-21fc-11ed-ba43-dac502259ad0.png

馮諾依曼架構是經典的計算架構,從此架構我們可以得到計算的三個主要的部件:計算單元、存儲單元,以及輸入輸出單元。

2.2 第一階段:CPU單一計算平臺

f6ddefec-21fc-11ed-ba43-dac502259ad0.png

如上圖所示,綠色代表計算單元+存儲單元,這里的計算單元是CPU。為了簡化系統分析,我們把存儲單元略去,默認是跟隨計算單元。

2.3 第二階段:從合到分,CPU+其他計算芯片的異構計算平臺

基于CPU的摩爾定律失效,CPU的性能提升很慢,每年只有不到3%,要想性能翻倍,需要20年以上。然而,對性能的需求,依然在不斷上升,因此,CPU+xPU的異構計算逐漸走向舞臺的中央。

f6f11216-21fc-11ed-ba43-dac502259ad0.png

所有的xPU,包括GPU、AI-DSA等加速器無法單獨存在,需要有Host CPU,形成CPU+xPU的異構計算的方式來實現完整的計算。 單個CPU+xPU異構計算本身存在的問題:

可加速部分占整個系統的比例有限,例如加速占比為80%,則加速最高不超過5倍;

數據在CPU和加速器之間來回搬運的影響,加速比率打了折扣,有些場景綜合加速效果不明顯;

異構加速顯式的引入新的實體,計算變成兩個或多個實體顯式的協作完成,增加了整個系統的復雜度;

雖然GPU相比CPU性能提升不少,但是相比DSA/ASIC的性能,還是有顯著的差距;而DSA/ASIC的問題則在于,無法適應復雜場景對業務靈活性的要求,導致大規模應用成為巨大的門檻;

CPU+xPU架構,是以CPU為中心,整個IO路徑很長,IO成為性能的瓶頸。

如果把基于CPU+xPU的多個異構計算整合起來,那會存在新的問題:

本質上,每一個CPU+xPU是一個個的孤島,不同xPU之間的通信會非常的麻煩,都需要CPU的參與,非常低效率低性能;

在服務器的物理空間里,通常只能加載一種類型的加速卡。不存在這么多的空間,可以加載如此多類型和數量的加速卡。站在服務器功耗約束的角度,這么多加速卡也不允許。

以CPU為中心的架構,所有的xPU交互需要CPU的參與(P2P方式可以減輕一些CPU的壓力,但至少跨越2條總線交互依然是低效的,本質問題沒有解決)。CPU是整個系統的重中之重,隨著CPU的性能提升緩慢,CPU成為整個系統的瓶頸,拖累了整個系統整體性能的顯著提升。

2.4 第三階段:從分到合的起點:DPU+其他計算芯片的異構計算平臺

f6ff42fa-21fc-11ed-ba43-dac502259ad0.png

我們再來看看以DPU為中心的架構。 需要澄清一下:以CPU計算為中心的架構,本質上是以控制為中心;以DPU為中心的架構,也不天然就等同于以數據為中心;如果DPU的架構實現依然是傳統SOC,那么DPU本質上仍然是以控制為中心。要想真正實現以數據為中心,整個系統架構需要做大范圍調整。 我們來看看在以DPU為中心的多個異構計算的混合狀態下,具體解決了哪些問題?

有一種說法,DPU是一個Switch,它不做具體的功能,只是連接了眾多的PU。那這樣的話,DPU實際上什么事情也沒干,這樣的DPU沒有意義。

大家對DPU形成共識的看法,DPU需要支持虛擬化、網絡、存儲和安全的加速處理。這樣的話,DPU本身完成了大量I/O數據的計算任務,減輕了CPU的負擔并且顯著的提升了整個系統的性能。

系統“分分合合”,DPU的出現,代表了計算在從分離逐漸走向合并,即把多個CPU+xPU的異構加速逐漸整合成單個處理芯片,實現異構計算的逐步整合。預示著服務器大芯片系統的發展,逐步從單CPU到CPU+xPU異構計算的逐漸分解的階段,走向了把多個CPU+xPU持續整合到一起的逐漸合并的新階段。 DPU沒有解決哪些問題?

計算任務,不僅僅包括I/O類任務處理,還可以是其他系統層,甚至可以是應用層的計算任務。如果把DPU當做綜合性的計算加速平臺,DPU可以繼續集成更多的加速功能。

DPU代替CPU,成為中心節點,“屠龍少年變成了惡龍”,CPU、GPU、其他xPU之間的通信依然很麻煩,依然是一個個孤島。

如果不更新整個系統的底層架構,以DPU為中心的架構,本質上仍然是以控制為中心的計算,而不是以數據為中心的計算,依然無法達到整個數據吞吐量和計算量的數量級提升。

依然存在物理空間約束的問題,服務器空間有限,特別是2U或1U的服務器,也需要足夠強勁的算力。而且隨著綠色數據中心的流行,對單臺服務器的功耗約束勢必越來越大。這個時候,各自獨立的CPU、GPU以及各類獨立加速器的問題就是亟待解決的。

從以CPU為中心架構,改成以DPU為中心的架構。會使得DPU成為重中之重,成為系統的關鍵“瓶頸”,成為系統的不可承受之重。

2.5 第四階段:從分到合:更高效的融合計算平臺

f71713b2-21fc-11ed-ba43-dac502259ad0.png

在新的階段里,沒有所謂的核心節點,把CPU、GPU、DPU(DPU可以看做Multi-XPU的集合),集成到單芯片。這個眾多功能融合的芯片,就是我們一直提到的超異構計算芯片(HPU,Hyper-heterogeneous Processing Unit)。 超異構計算芯片HPU可以認為是CPU+GPU+DPU的融合型芯片,但不能簡單的看做三者的集成。HPU需要解耦CPU、GPU和DPU的功能,重構整個系統,并且形成以數據為中心、數據流驅動計算的新型架構。 需要強調的是,超異構融合芯片不能跟超融合的概念混為一談,超異構芯片不等于云計算里經常講的超融合:

超融合是為了把云計算IaaS服務的大集群再整合到小規模集群,這樣方便在私有云和企業云部署。

而超異構融合芯片則強調系統棧的整體優化,是把服務器上運行的系統整體優化到多種引擎混合的高效高性能的單芯片里。超異構融合芯片既可以支持超融合,也可以支持不融合(即極致解構并超多用戶超多系統共存)。

我們可以簡單的把系統分為兩個平面:

控制和管理平面:仍然是運行在CPU的軟件;

計算和數據平面:此刻,CPU、GPU、其他各類xPU,甚至包括I/O都可以看做是平等的各類計算引擎,他們完成各自擅長的工作,并且充分交互,形成一個更加高效更加高性能的的一個整體的系統。

03大芯片融合的背景條件

3.1 條件1:90%以上的服務器系統相對輕量,單芯片可以容納

f7220880-21fc-11ed-ba43-dac502259ad0.png

重量級場景,需要獨立的CPU、GPU和DPU三芯片,而輕量級場景則可以有獨立的單芯片融合方案,實現比傳統CPU芯片同等面積下,性能數量級提升的可能,可以覆蓋輕量級系統所需的算力和復雜度。 而輕量級場景所占的所有服務器的規模也能夠達到90%左右:

邊緣服務器。數據中心包括云數據中心和邊緣數據中心,據有關數據分析,未來,邊緣計算會占到整個數據中心規模的80%。

企業級服務器。企業云場景,需要支持虛擬化,但一般來說不需要支持多租戶。服務器對算力的需求沒有云那么高。也屬于輕量級場景。

云數據中心服務器大體分為兩類,一類是重量級的業務服務器,一類是輕量級的存儲、其他各類資源池化服務器。這些資源池化服務的輕量級場景,都可以由超異構單芯片覆蓋。

此外,獨立的超異構融合芯片,也可以作為DPU的角色,和CPU、GPU配合來使用。

3.2 條件2:Chiplet技術成熟,使得單芯片可以覆蓋重量級場景

f72f44e6-21fc-11ed-ba43-dac502259ad0.png

Chiplet技術提供了使系統規模立竿見影快速提升的可能,這樣,我們可以提供一個更大規模的超異構融合芯片,來覆蓋各類重量級計算場景,用在典型的云計算業務計算服務器和異構計算服務器場景。 從而,使得超異構計算單芯片(單DIE芯片和多DIE組成的Chiplet芯片),可覆蓋云網邊端融合的所有復雜計算場景(復雜計算的顯著標志為:虛擬化和服務化)。

04融合,大芯片的發展趨勢

4.1 案例:NVIDIA Bluefield DPU集成GPU

f73d32cc-21fc-11ed-ba43-dac502259ad0.png

NVIDIA DPU roadmap NVIDIA DPU的Roadmap,NVIDIA計劃從Bluefield第四代開始,把DPU和GPU兩者集成一個單芯片。 NVIDIA DPU和GPU集成了,也已經有了獨立的Grace CPU。那么,在Chiplet技術已經成熟的情況下,再把CPU集成進來,構成CPU+GPU+DPU的超異構芯片,還會遠嗎?(不遠,因為在自動駕駛端已經有了。)

4.2 案例2:NVIDIA自動駕駛Atlan超異構融合芯片

f75004d8-21fc-11ed-ba43-dac502259ad0.png

圖 NVIDIA計劃2024年推出的自動駕駛芯片Atlan NVIDIA在自動駕駛領域的芯片發展,也基本上是2年一代產品。2024年要發布的Atlan芯片,則完全變成了集成ARM Neoverse系列的Grace CPU(NVIDIA數據中心CPU)、有可能是Hopper架構的GPU(NVIDIA數據中心GPU)以及Bluefield DPU(NVIDIA數據中心DPU),可以單芯片達到1000 TOPS。 這樣,我們可以看到,在自動駕駛領域,已經實現了多種處理引擎混合的完全的超異構融合芯片,Atlan使用的是數據中心相同的處理引擎架構,可以無縫實現云邊端協同甚至融合。 從量變到質變,Atlan隨著集成單元的增多,隨著性能需求的上升,隨著系統復雜度的上升而對芯片的通用靈活可編程能力要求上升,都需要全新的架構,全新的整合重構。

審核編輯 :李倩

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 數據中心
    +關注

    關注

    16

    文章

    5135

    瀏覽量

    73189
  • DPU
    DPU
    +關注

    關注

    0

    文章

    390

    瀏覽量

    24688
  • 自動駕駛
    +關注

    關注

    788

    文章

    14193

    瀏覽量

    169498

原文標題:從DPU看大芯片的發展趨勢:融合

文章出處:【微信號:算力基建,微信公眾號:算力基建】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    數據中心都在用的差分晶振,看完你就懂了

    數據中心
    FCom富士晶振
    發布于 :2025年05月30日 13:12:30

    適用于數據中心和AI時代的800G網絡

    隨著人工智能(AI)技術的迅猛發展,數據中心面臨著前所未有的計算和網絡壓力。從大語言模型(LLM)訓練到生成式AI應用,海量數據處理需求推動了網絡帶寬的快速增長。在此背景下,800G網絡技術應運而生
    發表于 03-25 17:35

    優化800G數據中心:高速線纜、有源光纜和光纖跳線解決方案

    )包括無源銅纜、有源銅纜(ACC)和有源電纜(AEC),它們比光纖便宜很多,可顯著降低數據中心的布線成本。與高速線纜相比,有源光纜(AOC)更為輕薄小巧,誤碼率更低且傳輸距離更遠。高速線纜和有源光纜
    發表于 03-24 14:20

    日本機房托管和自建數據中心相比有哪些優點

    日本機房托管和自建數據中心相比有哪些優點,日本機房托管與自建數據中心相比,具有以下優點,主機推薦小編為您整理發布日本機房托管和自建數據中心
    的頭像 發表于 03-05 09:42 ?227次閱讀

    數據中心機房冷水系統

    ,可以優先考慮風冷技術。風冷技術成本低、安裝和維護簡便,能夠滿足這類數據中心的基本散熱需求。就像一些小型企業的數據中心,采用風冷系統,既能保障設備正常運行,又不會給企業帶來過大的成本壓力。 對于規模較大、功率密度較高的
    的頭像 發表于 02-24 13:52 ?254次閱讀
    <b class='flag-5'>數據中心</b>機房冷水<b class='flag-5'>系統</b>

    光通信在數據中心的應用

    技術以其高速、大容量、低延遲和高可靠性的特點,成為數據中心內部和數據中心之間通信的首選技術。 光通信技術概述 光通信技術利用光波作為信息載體,通過光纖傳輸數據。與傳統的電信號傳輸
    的頭像 發表于 01-23 09:33 ?571次閱讀

    速看!Atlassian云版與數據中心版的創新進展

    數據中心
    龍智DevSecOps
    發布于 :2024年11月22日 17:29:05

    數據中心三維可視化管理系統功能特點

    數據中心。功能強大且全面的特點使其成為數據中心管理的重要利器。 數據中心 三維可視化 管理系統是一種強大的工具,幫助
    的頭像 發表于 09-23 14:09 ?435次閱讀

    怎樣保障數據中心不間斷電源不斷電 提供可靠安全的供配電#數據中心

    數據中心配電系統
    安科瑞王金晶
    發布于 :2024年08月29日 14:51:36

    數據中心使用智能負載組是個好主意#負載 #負載組

    數據中心
    深圳崧皓電子
    發布于 :2024年08月19日 07:43:30

    混合冷卻在數據中心中仍將是必不可少的#混合冷卻

    數據中心
    深圳崧皓電子
    發布于 :2024年08月06日 06:58:06

    數據中心、智算中心、超算中心,有何區別?

    模式,旨在為用戶提供高效、靈活、安全的計算服務。云數據中心通過網絡提供彈性、可擴展的計算、存儲和應用服務,其最大的特點是資源池化、按需服務、快速部署和靈活管理。用戶
    的頭像 發表于 06-22 08:27 ?6793次閱讀
    云<b class='flag-5'>數據中心</b>、智算<b class='flag-5'>中心</b>、超算<b class='flag-5'>中心</b>,有何區別?

    數據中心液冷需求、技術及實際應用

    夏日炎炎,數據中心制冷技術全新升級,液冷散熱,讓服務器清涼一夏。本文將帶您一起探索數據中心液冷需求、技術及實際應用。 1 數據中心液冷需求 AI浪潮來襲,數據中心的服務器部署的更多了。
    的頭像 發表于 06-19 11:12 ?1865次閱讀
    <b class='flag-5'>數據中心</b>液冷需求、技術及實際應用