女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

繼HBM之后,英偉達帶火又一AI內存模組!顛覆AI服務器與PC

花茶晶晶 ? 來源:電子發燒友網 ? 作者:綜合報道 ? 2025-07-27 07:50 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

電子發燒友網綜合報道,據韓媒報道,下一代低功耗內存模塊 “SOCAMM” 市場已全面拉開帷幕。英偉達作為 AI 領域的領軍企業,計劃在今年為其 AI產品部署60至80萬個 SOCAMM 內存模塊,不僅將用于數據中心AI服務器,也將有望應用于PC。這一舉措將對內存市場以及相關產業鏈產生深遠影響。

SOCAMM

SOCAMM 全稱為 Small Outline Compression Attached Memory Module,即小型化壓縮附加內存模組,是英偉達主導開發的一種新型內存模塊,是適用于數據中心 AI 服務器的新型高性能、低功耗內存。

它將低功耗 DRAM 與壓縮連接內存模塊(CAMM)搭配使用,以全新的外形尺寸提供卓越的性能和能效。基于 LPDDR5X 芯片,采用694個I/O端口,帶寬可達傳統 DDR5 的2.5倍。

在物理形態上,SOCAMM 尺寸僅為 14×90 毫米,外形類似U盤,相比傳統 RDIMM 體積減少66%,為實現更緊湊、高效的服務器設計提供了可能。SOCAMM 采用了可拆卸的模塊化插拔結構,改變了以往 LPDDR 內存必須焊接在主板上的限制,用戶可以像更換硬盤或 SSD那樣便捷地進行內存升級或替換,大大提高了系統的靈活性和可維護性。

SOCAMM 采用引線鍵合和銅互連技術,每個模塊連接 16 個 DRAM 芯片,這種銅基結構增強了散熱性能,對于 AI 系統的性能和可靠性至關重要。同時,SOCAMM 基于成熟的封裝工藝,顯著降低了部署門檻和制造難度,具備更強的成本控制能力和更廣泛的適用范圍。

于AI服務器和PC中采用

得益于 LPDDR5X 自身的低電壓設計和優化后的封裝工藝,SOCAMM 使服務器整體運行能耗減少約 45%,這種高效能與低功耗的平衡特性,使得 SOCAMM 不僅適用于集中式的數據中心,也能很好地服務于邊緣計算場景中對空間和能耗敏感的應用需求。NVIDIA 計劃將 SOCAM 率先應用于其 AI 服務器產品和 AI PC(工作站)產品。

在英偉達的規劃中,將率先采用SOCAMM的產品將是GB300 Blackwell 平臺。Blackwell 架構 GPU 具有 2080 億個晶體管,采用專門定制的臺積電 4NP 工藝制造。所有 Blackwell 產品均采用雙倍光刻極限尺寸的裸片,通過 10 TB/s 的片間互聯技術連接成一塊統一的GPU。其在性能、效率和規模方面取得了突破性進步。而 SOCAMM 內存模塊的加入,將進一步提升其在 AI 運算方面的表現。

此外,英偉達在今年5月GTC 2025上發布的個人 AI 超級計算機 “DGX Spark” 也采用了 SOCAMM 模塊。DGX Spark 采用 NVIDIA GB10 Grace Blackwell 超級芯片,能夠提供高性能 AI 功能,并支持多達 2000 億個參數的模型。隨著DGX Spark的推出,預計將推動SOCAMM向PC市場滲透,使更多消費者受益于這一先進的內存技術。

SOCAMM 與現有的筆記本電腦 DRAM 模塊(LPCAMM)相比,其 I/O 速度提升,數據傳輸速度加快,且結構緊湊,更易于更換和擴展。

隨著 SOCAMM 在 AI 服務器和 PC 中的應用不斷增長,其大規模出貨預計將對內存和 PCB 電路板市場產生積極影響。知情人士透露,“英偉達正在與內存和電路板行業分享 SOCAMM 的部署量(60 至 80 萬片),該模塊將應用于其 AI 產品”,目前內存和 PCB 電路板行業都在為訂單和供貨積極做準備。

從內存市場來看,SOCAMM 的應用將刺激對低功耗 DRAM 的需求,推動內存廠商加大在相關技術研發和產能擴充方面的投入。由于 SOCAMM 需要適配電路板設計,這將促使 PCB 廠商開發新的產品方案,帶動行業技術升級。

美光率先供應SOCAMM

目前在內存廠商中,美光的 SOCAMM已率先獲得英偉達量產批準。美光在內存解決方案領域一直積極探索創新,成為英偉達下一代內存供應商。而三星和 SK 海力士的 SOCAMM 目前尚未獲得英偉達認證,不過這兩家內存大廠也在積極與英偉達接洽,希望能夠供應SOCAMM。

美光 SOCAMM 是業界首款專為 AI 資料中心設計的資料中心級模塊化低功耗存儲器模塊。透過將美光業界領先的 LPDDR5X 與 CAMM 存儲器模塊結合在一起,這款次世代存儲器為更有效率的 AI 資料中心奠定了基礎。

來源:美光官網


美光宣稱其最新LPDDR5X芯片能效比競爭對手高出20%,這是其贏得英偉達訂單的關鍵因素。考慮到每臺AI服務器將搭載四個SOCAMM模塊(總計256個DRAM芯片),散熱效率的重要性尤為突出。

與美光此前生產的服務器 DDR 模塊RDIMM相比,SOCAMM的尺寸和功耗減少了三分之一,帶寬增加了 2.5 倍。

通過采用美光LPDDR5X 等創新型低功耗(LP)存儲器架構,資料中心可以大幅提高效能,并能夠避免傳統 DDR5 存儲器的能源損耗。與 DDR5 等傳統存儲器技術不同,LP 存儲器運行于較低的電壓,并通過減少功耗、降低發熱量、最佳化以節能為重點的電路設計等方式提高功耗和能源效率。

在大規模客戶支持環境中執行推理 Llama 3 70B,單個 GPU 管理復雜的AI互動,同時實時處理數千個錯綜復雜的客戶查詢。LP 存儲器的使用將這一密集型運算工作量轉化為能源效率更高的過程。

當我們測試 LPDDR5X 存儲器(在搭載 NVLink 的 NVIDIA GH200 Grace Hopper 超級芯片上)與傳統 DDR5 存儲器(在搭載 PCIe 連線 Hopper GPU 的 x86 系統上)時,結果表明 LP 存儲器實現了關鍵的效能提升。使用 Meta Llama 3 70B 測試推理效能時,LP 存儲器系統推理吞吐量提高了 5 倍、延遲減少了近 80%、能源消耗降低了 73%。

LLM 推理的能源效率 來源:美光官網



小結:

隨著英偉達對 SOCAMM 內存模塊的大規模部署,以及其在 AI 服務器和 PC 市場的逐步滲透,將推動整個 AI 產業鏈圍繞這一新型內存技術進行升級和發展。無論是內存廠商、PCB電路板廠商,還是服務器制造商和終端用戶,都將受益于SOCAMM帶來的影響。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    GPU猛獸襲來!HBM4、AI服務器徹底引爆!

    電子發燒友網報道(文/黃晶晶)日前,多家服務器廠商表示因AI服務器需求高漲拉高業績增長。隨著AI服務器需求旺盛,以及
    的頭像 發表于 06-02 06:54 ?5955次閱讀

    AI服務器電源技術研討會部分演講嘉賓確認

    AI服務器電源是2025-2026年AI硬件確定的增量,英偉超級芯片GB200功率到2700W,是傳統
    的頭像 發表于 06-24 10:07 ?273次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>服務器</b>電源技術研討會部分演講嘉賓確認

    比肩HBM,SOCAMM內存模組即將商業化

    參數規模數百億甚至萬億級別,帶來巨大內存需求,但HBM內存價格高昂,只應用在高端算力卡上。SOCAMM則有望應用于AI
    的頭像 發表于 05-17 01:15 ?2983次閱讀

    英偉開發新型內存模組SOCAMM,或年底量產

    據韓媒近日報道,英偉已在內部成功研發出種新型內存模組,命名為SOCAMM。這創新成果不僅標
    的頭像 發表于 02-19 11:41 ?821次閱讀

    美光量產12層堆棧HBM,獲英偉供應合同

    近日,美光科技宣布即將開始量產其最新的12層堆棧高帶寬內存HBM),并將這高性能產品供應給領先的AI半導體公司英偉
    的頭像 發表于 02-18 14:51 ?710次閱讀

    鴻海GB200 AI服務器順利完成英偉交付目標

    據臺媒報道,鴻海近期在AI服務器領域取得了顯著成果。為確保英偉超級AI芯片GB200的出貨進度,鴻海在中國臺灣和越南等地的廠區在農歷新年期
    的頭像 發表于 02-06 17:59 ?946次閱讀

    英偉GB300 AI服務器預計2025年Q2發布,強化水冷散熱需求

    近日,據供應鏈最新消息,英偉正緊鑼密鼓地設計其下代GB300 AI服務器,并預計在2025年第二季度正式發布。隨后,該產品將在第三季度進
    的頭像 發表于 01-06 10:19 ?1352次閱讀

    英偉GB300 AI服務器訂單配置初定

    近日,據業界消息透露,英偉已初步敲定了其下代GB300 AI服務器產品線的訂單配置。預計英偉
    的頭像 發表于 12-25 10:52 ?1148次閱讀

    英偉加速認證三星新型AI存儲芯片

    近日,英偉首席執行官黃仁勛近日在接受采訪時透露,英偉正在全力加速對三星最新推出的AI存儲芯片——HB
    的頭像 發表于 11-26 10:22 ?695次閱讀

    英偉加速認證三星AI內存芯片

    近日,英偉公司正在積極推進對三星AI內存芯片的認證工作。據英偉CEO透露,他們正在不遺余力地
    的頭像 發表于 11-25 14:34 ?696次閱讀

    英偉加速Rubin平臺AI芯片推出,SK海力士提前交付HBM4存儲

    日,英偉(NVIDIA)的主要高帶寬存儲HBM)供應商南韓SK集團會長崔泰源透露,英偉
    的頭像 發表于 11-05 14:22 ?1291次閱讀

    英偉地表最強AI芯片GB200 NVL72服務器遭搶購

    10月28日,最新媒體報道顯示,配備有英偉被譽為“地表最強AI芯片”的GB200的AI服務器已開始交付,微軟、Meta等行業巨頭正積極擴大
    的頭像 發表于 10-29 10:42 ?1543次閱讀

    微軟Azure首獲英偉GB200 AI服務器

    微軟Azure在社交平臺上宣布了項重要進展,公司已經成功獲得了搭載英偉最新GB200超級芯片的AI服務器。這
    的頭像 發表于 10-10 17:01 ?1154次閱讀

    英偉AI服務器將革新采用插槽式設計

    英偉AI服務器領域即將迎來重大變革。據里昂證券最新發布的報告預測,從明年下半年起,英偉的旗艦
    的頭像 發表于 09-27 11:47 ?809次閱讀

    三星電子HBM3E內存英偉認證,加速AI GPU市場布局

    近日,知名市場研究機構TrendForce在最新發布的報告中宣布了項重要進展:三星電子的HBM3E內存產品已成功通過英偉驗證,并正式開啟
    的頭像 發表于 09-05 17:15 ?1148次閱讀