女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

ASIC爆火!大廠AI訓練推理拋棄GPU;博通的護城河有多深?

Hobby觀察 ? 來源:電子發燒友 ? 作者:梁浩斌 ? 2024-12-18 01:25 ? 次閱讀

電子發燒友網報道(文/梁浩斌)在上周末,博通應該可以說是投資圈和科技圈最火爆的話題,大家紛紛驚呼“英偉達的對手終于出現了!”“ASIC要超越GPU”云云。

這一切都要源于上周五博通公布的炸裂財報,AI業務營收同比暴增220%,當天公司股價大漲24.43%,市值突破萬億美元,成為第九家市值突破萬億美元的美股上市公司,全球第三家市值超萬億美元的半導體公司。

當然,更重要的是對未來的預期,博通在數據中心高速互連領域有非常大的市場份額,這代表著AI基礎設施的規模增長,博通的部分增長也確實來自以太網網絡部件。但除了高速互連之外,博通還正在與一些大型云服務供應商合作,幫助他們開發定制AI芯片,這部分業務的增長迅速,將會令博通成為英偉達的最大挑戰者。

博通的AI芯片布局

博通的傳統優勢是在高速互連方面,比如數據中心的以太網傳輸中用到的高速光模塊產品組合,還有在高速互連中使用到的高速SerDes內核IP等。而目前博通在AI芯片領域,主要也是提供ASIC解決方案,提供設計、廣泛IP組合、先進封裝等方案,集成了內存、高速SerDes、PCIe接口等IP,以及Arm/Power PC等CPU內核。

ASIC即專用集成電路,顧名思義,與英偉達提供的通用GPU不同,ASIC是專門針對某種場景或應用設計,目前不少云計算巨頭都在使用定制的ASIC作為數據中心的核心芯片。作為一種專用芯片,在設計之初就是為了滿足特定的任務和算法需求,因此在針對算法開發的情況下,計算效率和能效比都能夠相比通用GPU大幅提高。

比如谷歌去年推出的TPU v5e專為提升中大型模型的訓練、推理等任務設計,相比上一代的TPU v4訓練性能提高2倍,推理性能提高2.5倍,但成本只有上一代的一半不到,大幅提升了計算效率以及成本效益。

對于云計算巨頭而言,為了降低對英偉達的依賴,同時也為了降低成本,選擇定制ASIC都會是一個比較確定的方向。除了谷歌之外,亞馬遜、華為、阿里、百度等云計算巨頭都已經有自研數據中心ASIC產品,并已經投入使用。

而博通目前依靠在高速互連方面的關鍵技術,在對互連速率要求極高的AI計算領域就極具優勢。早在2020年,博通推出了公司首款采用臺積電N5工藝的數據中心ASIC,集成了PCIe Gen5協議、112 Gbps SerDes、運行頻率為3.6 Gbps、集成HBM2e,利用TSMC CoWoS Interposer封裝技術實現3.6 Tbps Die2Die PHY IP,幾乎將先進的高速互連技術堆滿。

最近博通還推出了3.5D XDSiP封裝平臺,可以將超過6000平方毫米的3D堆疊硅晶片和12個HBM模塊集成到一個系統級封裝中,同時大幅提升片內互連的性能。

與傳統采用硅通孔TVS的F2B(面到背)的技術相比,3.5D XDSiP采用HCB(混合銅鍵合)以F2F(面對面)的方式將邏輯芯片堆疊,堆疊芯片之間的信號密度提高了7倍;3.5D XDSiP通過利用3D HCB代替平面芯片到芯片物理接口,芯片到芯片接口的功耗降低了90%,還能最大限度地減少3D堆棧中計算、內存和I/O組件之間的延遲。

據稱博通的3.5D XDSiP目前已經被主要的AI領域客戶使用,已經有6款產品正在開發中,博通預計最早在2026年2月實現出貨。其中富士通下一代2nm制程的Arm處理器FUJITSU-MONAKA已經確認使用博通3.5D XDSiP技術,這款處理器面向數據中心、邊緣計算等應用,據此前富士通的介紹,MONAKA每顆CPU包含一個中央的I/O die和四個3D垂直堆疊die,并集成SRAM,預計2027年出貨。

今年9月,博通還展示了一種帶有光學模塊的AI計算ASIC,實現片間光互連。博通在制造中使用了FOWLP封裝技術,將CPO模塊與AI ASIC封裝在一起,大幅降低了系統延遲,還實現了可插拔的激光器設計,便于數據中心維護。

目前來看,在AI計算中極為重要的互連技術上,博通擁有很強大的技術積累,這也為其ASIC定制服務建立了穩固的壁壘。從客戶群來看,博通在財報中透露,目前正在與三家非常大型的云計算客戶開發AI芯片,并預計到2027年,每個客戶都將在網絡集群中部署100萬個AI芯片,屆時市場對定制AI ASIC的需求容量將高達600億-900億美元。

ASIC跑AI,大廠的專屬玩物

最近大廠開發ASIC的消息頻出,在博通公布財報的前一天,就傳出蘋果與博通合作,開發面向AI推理的ASIC芯片,將采用臺積電N3P工藝,計劃在2026年投入生產。而亞馬遜也在月初公布了AI芯片Trn2UltraServer和Amazon EC2Trn2的應用實例,展示出ASIC的應用性價比遠超GPU。

但可能大家也發現,目前定制開發高算力ASIC的廠商,無一例外是云計算大廠,本身公司業務就有極大規模的算力需求。這是由于ASIC的定制費用較高,需要有足夠龐大的規模才能分攤前期定制開發費用。

ASIC定制費用,主要是開發過程中的一次性工程費用,也被業內稱為NRE(Non-Recurring Engineering)。顧名思義,NRE費用只需要支出一次,后續規模生產中不需要再增加這部分費用。

NRE費用中,包含芯片設計的成本,比如研發人員薪酬、EDA工具授權費等,這與芯片使用的制程工藝、芯片本身的復雜程度相關;然后是版圖設計成本,其實這里的概念跟芯片設計的成本類似,主要是涉及芯片的物理布局設計,需要特定的研發人員和軟件支持;再是IP授權費用,一般是一些通用的IP,比如CPU IP、內存控制器、接口IP等。

以定制一款采用5nm制程的ASIC為例,NRE費用可以高達1億至2億美元。然而一旦能夠大規模出貨,NRE費用就可以很大程度上被攤薄。

博通也提到,未來每個客戶將在網絡集群中部署100萬片AI芯片,即使其中只有30萬片是定制的ASIC,那么分攤到每一片芯片上的NRE費用就大約只要300-600美元,相比GPU的成本有明顯的優勢。而據業內人士分析,中等復雜程度的ASIC盈虧平衡點在10萬片左右。

小結:

盡管目前英偉達GPU在AI訓練、推理的應用中還是處于一家獨大的地位,但ASIC的成本效益,讓各大大模型廠商不得不開始考慮轉向ASIC。加上谷歌推出的Gemini2.0已經開始帶頭使用自家的TPU來進行訓練和推理,以往ASIC不適用于AI訓練的刻板印象也逐步被打破。

如果ASIC的成本效益未來能被進一步開發至極致,那么至少像百度、阿里、谷歌、騰訊、華為這樣的集大模型開發和云計算服務于一體的互聯網巨頭,會先擺脫在AI大模型上對GPU的依賴。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 博通
    +關注

    關注

    35

    文章

    4333

    瀏覽量

    107489
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    摩爾線程GPU原生FP8計算助力AI訓練

    并行訓練推理,顯著提升了訓練效率與穩定性。摩爾線程是國內率先原生支持FP8計算精度的國產GPU企業,此次開源不僅為AI
    的頭像 發表于 03-17 17:05 ?477次閱讀
    摩爾線程<b class='flag-5'>GPU</b>原生FP8計算助力<b class='flag-5'>AI</b><b class='flag-5'>訓練</b>

    一夜的DeepSeek一體機,如何改寫AI游戲規則?

    一夜的DeepSeek一體機,如何改寫AI游戲規則? 過去一個多月,科技圈有個“新晉頂流”C位出道,名字叫DeepSeek一體機。 它到什么程度? 朋友圈不斷刷屏,有人調侃:“沒
    的頭像 發表于 03-11 15:52 ?439次閱讀
    一夜<b class='flag-5'>爆</b><b class='flag-5'>火</b>的DeepSeek一體機,如何改寫<b class='flag-5'>AI</b>游戲規則?

    無法調用GPU插件推理的遠程張量API怎么解決?

    運行了使用 GPU 插件的遠程張量 API 的推理。但是,它未能共享 OpenCL* 內存,但結果不正確。
    發表于 03-06 06:13

    壁仞科技支持DeepSeek-V3滿血版訓練推理

    DeepSeek-V3滿血版在國產GPU平臺的高效全棧式訓練推理,實現國產大模型與國產GPU的深度融合優化,開啟國產算力新篇章。
    的頭像 發表于 03-04 14:01 ?802次閱讀

    AI推理ASIC,開發成敗在此一舉!

    的應用性價比遠超GPU,加上通財報AI業務同比大增220%,掀起了AI推理端的ASIC熱潮。
    的頭像 發表于 03-03 00:13 ?2952次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>帶<b class='flag-5'>火</b>的<b class='flag-5'>ASIC</b>,開發成敗在此一舉!

    燧原科技助力美圖AI換裝全球

    2025蛇年元宵后,美圖公司旗下美顏相機憑借“AI換裝”功能,獲得了國內外用戶的極大青睞,App下載量和使用量迅速激增的同時,也面臨了海量推理算力即時支持的挑戰。
    的頭像 發表于 02-25 16:47 ?731次閱讀

    讓大模型訓練更高效,奇異摩爾用互聯創新方案定義下一代AI計算

    ? 電子發燒友網報道(文/吳子鵬)近一段時間以來,DeepSeek現象級引發產業對大規模數據中心建設的思考和爭議。在訓練端,DeepSeek以開源模型通過算法優化(如稀疏計算、動態架構)降低
    的頭像 發表于 02-18 09:19 ?1203次閱讀
    讓大模型<b class='flag-5'>訓練</b>更高效,奇異摩爾用互聯創新方案定義下一代<b class='flag-5'>AI</b>計算

    ASICGPU的原理和優勢

    ? 本文介紹了ASICGPU兩種能夠用于AI計算的半導體芯片各自的原理和優勢。 ASICGPU是什么
    的頭像 發表于 01-06 13:58 ?1430次閱讀
    <b class='flag-5'>ASIC</b>和<b class='flag-5'>GPU</b>的原理和優勢

    GPU是如何訓練AI大模型的

    AI模型的訓練過程中,大量的計算工作集中在矩陣乘法、向量加法和激活函數等運算上。這些運算正是GPU所擅長的。接下來,AI部落小編帶您了解GPU
    的頭像 發表于 12-19 17:54 ?627次閱讀

    訓練AI大模型需要什么樣的gpu

    訓練AI大模型需要選擇具有強大計算能力、足夠顯存、高效帶寬、良好散熱和能效比以及良好兼容性和擴展性的GPU。在選擇時,需要根據具體需求進行權衡和選擇。
    的頭像 發表于 12-03 10:10 ?537次閱讀

    AI推理CPU當道,Arm驅動高效引擎

    AI訓練推理共同鑄就了其無與倫比的處理能力。在AI訓練方面,GPU因其出色的并行計算能力贏得
    的頭像 發表于 11-13 14:34 ?3199次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>推理</b>CPU當道,Arm驅動高效引擎

    FPGA和ASIC在大模型推理加速中的應用

    隨著現在AI的快速發展,使用FPGA和ASIC進行推理加速的研究也越來越多,從目前的市場來說,有些公司已經有了專門做推理ASIC,像Gro
    的頭像 發表于 10-29 14:12 ?1792次閱讀
    FPGA和<b class='flag-5'>ASIC</b>在大模型<b class='flag-5'>推理</b>加速中的應用

    NVIDIA助力麗蟾科技打造AI訓練推理加速解決方案

    麗蟾科技通過 Leaper 資源管理平臺集成 NVIDIA AI Enterprise,為企業和科研機構提供了一套高效、靈活的 AI 訓練推理加速解決方案。無論是在復雜的
    的頭像 發表于 10-27 10:03 ?672次閱讀
    NVIDIA助力麗蟾科技打造<b class='flag-5'>AI</b><b class='flag-5'>訓練</b>與<b class='flag-5'>推理</b>加速解決方案

    為什么ai模型訓練要用gpu

    GPU憑借其強大的并行處理能力和高效的內存系統,已成為AI模型訓練不可或缺的重要工具。
    的頭像 發表于 10-24 09:39 ?866次閱讀

    GPU服務器在AI訓練中的優勢具體體現在哪些方面?

    GPU服務器在AI訓練中的優勢主要體現在以下幾個方面: 1、并行處理能力:GPU服務器擁有大量的并行處理核心,這使得它們能夠同時處理成千上萬個計算任務,極大地加速了
    的頭像 發表于 09-11 13:24 ?876次閱讀