女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

Rail-Only拓撲與PCI Switch:GPU集群間高效通信的核心邏輯

星融元 ? 來源:jf_55437772 ? 作者:jf_55437772 ? 2025-03-26 10:33 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

當前AI推理面臨兩大核心矛盾

算力需求激增:大模型應用爆發(如實時交互、多模態生成),企業亟需更低延遲、更高吞吐的推理能力;

資源浪費嚴重:傳統架構下,GPU算力閑置率超30%,長文本處理場景首Token延遲飆升至秒級,用戶體驗流失率增加40%。

DeepSeek-V3/R1的給我們的啟示:混合專家模型(MoE)雖需320卡起步,卻為超大規模云計算廠商提供了差異化競爭力——吞吐效率提升50%,單用戶推理成本降低20%。而對中小客戶,“高性價比”仍是剛需,Dense模型憑借靈活部署穩占80%市場份額。

組網架構的“黃金分割”

行業需求驅動架構革新

分離架構:適合頭部云廠商(如AWS、阿里云),通過獨立優化Prefill(算力密集型)和Decode(帶寬密集型)集群,實現超大規模并發下的極致性能,客戶可溢價30%提供“高端推理服務”。

統一架構:中小廠商的“降本利器”——單網絡支持智能流量調度,硬件投資減少25%,運維成本降低40%,兼容80%現有基礎設施,快速搶占中端市場。

采用星融元CX-N系列交換機+RoCEv2技術,單設備支持400G/800G帶寬,滿足“既要大吞吐又要低延遲”的矛盾需求。

從實驗室到生產線:組網設計的成本與效益平衡

Rail-Only拓撲:4 GPU/組共享PCIe鏈路,服務器內直連減少跳數,適合百卡以下集群,硬件成本降低30%。

wKgZPGfjZk-AVUCAAANHgMm5JfI655.png

GPU服務器內部:每四個GPU作為一組,共享一個并行推理網卡,連接到同一個PCI Switch,兩組GPU之間的通信通過兩個PCI Switch之間的直連通道完成;

GPU服務器之間:同一組號的GPU之間的通信通過交換機直接完成;不同組號的GPU之間的通信,先通過PCI Swtitch將流量路由到另一組的網卡,然后通過交換機完成;

小規模場景:低成本敏捷部署

wKgZO2fjZn6AdNiDAAY3TFpXC4I846.png

每臺推理服務器有8張GPU,2張400G網卡,雙歸連接到兩臺CX732Q-N

16個推理服務器(128張GPU)和2個CX732Q-N組成一個PoD。Prefill和Decode服務器可能屬于不同PoD

可橫向擴展至64個PoD

中大規模場景:性能與擴展性優先

模塊化PoD設計:以512 GPU為單元構建獨立集群,Prefill與Decode服務器同PoD內一跳互聯,時延控制在10μs以內。

橫向擴展能力:可橫向擴展至64個PoD,支持萬卡級集群無縫擴容,滿足云計算平臺彈性需求。

wKgZO2fjZq6ADWM0AAbvJN4vMng448.png

未來展望:開放生態與硬件迭代的雙重助力

盡管DeepSeek尚未開源,但其PD分離架構為行業提供了關鍵思路。未來趨勢將圍繞兩大方向:

軟硬件協同優化:如DPU卸載KV緩存傳輸任務,進一步釋放GPU算力;

邊緣AI輕量化:通過模型剪枝與專用推理芯片,在10卡以下環境中實現MoE模型部署。

【參考文獻】

https://asterfusion.com/a20250306-scale-out/


審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • gpu
    gpu
    +關注

    關注

    28

    文章

    4944

    瀏覽量

    131217
  • PCI
    PCI
    +關注

    關注

    5

    文章

    679

    瀏覽量

    131988
  • AI
    AI
    +關注

    關注

    88

    文章

    35109

    瀏覽量

    279587
  • 組網
    +關注

    關注

    1

    文章

    392

    瀏覽量

    22860
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    熱插拔算力集群

    熱插拔算力集群指在無需停機的情況下,動態增減計算節點或硬件的算力基礎設施,其核心價值在于實現資源的彈性伸縮和業務連續性。以下從關鍵技術、應用場景及優勢三個維度分析: 一、關鍵技術支撐? 硬件熱插拔
    的頭像 發表于 06-26 09:20 ?183次閱讀

    如何破解GPU集群集合通信路徑的“黑盒”難題?

    集合通信庫(如NCCL、HCCL)的運行細節用戶完全無感知,形成“黑盒”狀態。EPS通過實時解析集合通信庫的底層運行狀態,將隱蔽的通信路徑、GPU與網卡狀態等信息可視化,并提供智能路由
    的頭像 發表于 05-22 10:13 ?349次閱讀
    如何破解<b class='flag-5'>GPU</b><b class='flag-5'>集群集合通信</b>路徑的“黑盒”難題?

    iTOP-3588S開發板四核心架構GPU內置GPU可以完全兼容0penGLES1.1、2.0和3.2。

    ,8GB內存,32GBEMMC。 四核心架構GPU內置GPU可以完全兼容0penGLES1.1、2.0和3.2。 內置NPU RK3588S內置NPU,支持INT4/INT8/INT16/FP16混合運算
    發表于 05-15 10:36

    如何通過Docker和K8S集群實現高效調用GPU

    在有GPU資源的主機安裝,改主機作為K8S集群的Node。
    的頭像 發表于 03-18 16:50 ?461次閱讀
    如何通過Docker和K8S<b class='flag-5'>集群</b>實現<b class='flag-5'>高效</b>調用<b class='flag-5'>GPU</b>

    ADA4511-2: Precision, 40 V, Rail-to-Rail Input and Output Op Amp with DigiTrim Data Sheet adi

    電子發燒友網為你提供ADI(ADI)ADA4511-2: Precision, 40 V, Rail-to-Rail Input and Output Op Amp with DigiTrim
    發表于 01-15 18:47
    ADA4511-2: Precision, 40 V, <b class='flag-5'>Rail-to-Rail</b> Input and Output Op Amp with DigiTrim Data Sheet adi

    小米加速布局AI大模型,搭建GPU萬卡集群

    近日,有消息稱小米正在緊鑼密鼓地搭建自己的GPU萬卡集群,旨在加大對AI大模型的投入力度。據悉,小米的大模型團隊在成立之初就已經擁有了6500張GPU資源,而現在他們正在進一步擴大這一規模。 針對
    的頭像 發表于 12-28 14:25 ?517次閱讀

    分布式通信的原理和實現高效分布式通信背后的技術NVLink的演進

    在進入大模型時代后,大模型發展已是人工智能的核心,但訓練大模型實際上是一項比較復雜的工作,因為它需要大量的 GPU 資源和較長的訓練時間。 此外,由于單個 GPU 工作線程的內存有限,并且許多
    的頭像 發表于 11-18 09:39 ?1284次閱讀
    分布式<b class='flag-5'>通信</b>的原理和實現<b class='flag-5'>高效</b>分布式<b class='flag-5'>通信</b>背后的技術NVLink的演進

    華迅光通AI計算加速800G光模塊部署

    ,服務器之間的數據交換需要經過接入交換機、匯聚交換機和核心交換機。這給匯聚交換機和核心交換機帶來了巨大的工作壓力。 三層拓撲:如果采用傳統的三層拓撲,進一步擴大服務器
    發表于 11-13 10:16

    如何構建及優化GPU云網絡

    并從計算節點成本優化、集群網絡與拓撲的選擇等方面論述如何構建及優化GPU云網絡。
    的頭像 發表于 11-06 16:03 ?1026次閱讀
    如何構建及優化<b class='flag-5'>GPU</b>云網絡

    GPU服務器AI網絡架構設計

    眾所周知,在大型模型訓練中,通常采用每臺服務器配備多個GPU集群架構。在上一篇文章《高性能GPU服務器AI網絡架構(上篇)》中,我們對GPU網絡中的
    的頭像 發表于 11-05 16:20 ?1231次閱讀
    <b class='flag-5'>GPU</b>服務器AI網絡架構設計

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構分析」閱讀體驗】--了解算力芯片GPU

    不同的線程束以執行不同的指令。指令調度單元負責從指令緩存中取出著色器程序中的操作指令,并將其分配給每個CUDA核心執行。 線程塊的設計為 GPU編程提供了一種高效、靈活和易用的方式來組織和管理并行線程
    發表于 11-03 12:55

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構分析」閱讀體驗】--了解算力芯片CPU

    認為是一種類似交叉開關(Crossbar)的拓撲結構,片內多個物理 CPU核心的互連和片外多個CPU的互連都使用了該總線(每個物理CPU核心內部都可能使用了其他拓撲結構,如環形總線),
    發表于 10-20 12:03

    【「算力芯片 | 高性能 CPU/GPU/NPU 微架構分析」閱讀體驗】--全書概覽

    ARMSVE指令集 第5章 邏輯拓撲結構 5.1 環形拓撲方式 5.2 Infnity Fabric 拓撲方式 5.3 網格拓撲方式 5
    發表于 10-15 22:08

    邏輯電路芯片-組合邏輯電路芯片-時序邏輯電路芯片

    GPU、內存控制器等核心部件均大量使用邏輯電路芯片實現復雜的運算和控制功能。 通信設備:路由器、交換機、基站等通信設備中的信號處理、數據轉
    發表于 09-30 10:47

    服務器集群中 IP 地址管理混亂

    ,共同工作以提供更高的性能、可用性和可擴展性。IP 地址則是服務器在網絡中的標識符,用于數據的傳輸和通信。 在服務器集群中,合理的 IP 地址規劃和管理對于確保服務器之間的高效通信、服
    的頭像 發表于 08-01 14:45 ?527次閱讀