電子發燒友網報道(文/梁浩斌)在上周末,博通應該可以說是投資圈和科技圈最火爆的話題,大家紛紛驚呼“英偉達的對手終于出現了!”“ASIC要超越GPU”云云。
這一切都要源于上周五博通公布的炸裂財報,AI業務營收同比暴增220%,當天公司股價大漲24.43%,市值突破萬億美元,成為第九家市值突破萬億美元的美股上市公司,全球第三家市值超萬億美元的半導體公司。
當然,更重要的是對未來的預期,博通在數據中心高速互連領域有非常大的市場份額,這代表著AI基礎設施的規模增長,博通的部分增長也確實來自以太網網絡部件。但除了高速互連之外,博通還正在與一些大型云服務供應商合作,幫助他們開發定制AI芯片,這部分業務的增長迅速,將會令博通成為英偉達的最大挑戰者。
博通的AI芯片布局
博通的傳統優勢是在高速互連方面,比如數據中心的以太網傳輸中用到的高速光模塊產品組合,還有在高速互連中使用到的高速SerDes內核IP等。而目前博通在AI芯片領域,主要也是提供ASIC解決方案,提供設計、廣泛IP組合、先進封裝等方案,集成了內存、高速SerDes、PCIe接口等IP,以及Arm/Power PC等CPU內核。
ASIC即專用集成電路,顧名思義,與英偉達提供的通用GPU不同,ASIC是專門針對某種場景或應用設計,目前不少云計算巨頭都在使用定制的ASIC作為數據中心的核心芯片。作為一種專用芯片,在設計之初就是為了滿足特定的任務和算法需求,因此在針對算法開發的情況下,計算效率和能效比都能夠相比通用GPU大幅提高。
比如谷歌去年推出的TPU v5e專為提升中大型模型的訓練、推理等任務設計,相比上一代的TPU v4訓練性能提高2倍,推理性能提高2.5倍,但成本只有上一代的一半不到,大幅提升了計算效率以及成本效益。
對于云計算巨頭而言,為了降低對英偉達的依賴,同時也為了降低成本,選擇定制ASIC都會是一個比較確定的方向。除了谷歌之外,亞馬遜、華為、阿里、百度等云計算巨頭都已經有自研數據中心ASIC產品,并已經投入使用。
而博通目前依靠在高速互連方面的關鍵技術,在對互連速率要求極高的AI計算領域就極具優勢。早在2020年,博通推出了公司首款采用臺積電N5工藝的數據中心ASIC,集成了PCIe Gen5協議、112 Gbps SerDes、運行頻率為3.6 Gbps、集成HBM2e,利用TSMC CoWoS Interposer封裝技術實現3.6 Tbps Die2Die PHY IP,幾乎將先進的高速互連技術堆滿。
最近博通還推出了3.5D XDSiP封裝平臺,可以將超過6000平方毫米的3D堆疊硅晶片和12個HBM模塊集成到一個系統級封裝中,同時大幅提升片內互連的性能。
與傳統采用硅通孔TVS的F2B(面到背)的技術相比,3.5D XDSiP采用HCB(混合銅鍵合)以F2F(面對面)的方式將邏輯芯片堆疊,堆疊芯片之間的信號密度提高了7倍;3.5D XDSiP通過利用3D HCB代替平面芯片到芯片物理接口,芯片到芯片接口的功耗降低了90%,還能最大限度地減少3D堆棧中計算、內存和I/O組件之間的延遲。
據稱博通的3.5D XDSiP目前已經被主要的AI領域客戶使用,已經有6款產品正在開發中,博通預計最早在2026年2月實現出貨。其中富士通下一代2nm制程的Arm處理器FUJITSU-MONAKA已經確認使用博通3.5D XDSiP技術,這款處理器面向數據中心、邊緣計算等應用,據此前富士通的介紹,MONAKA每顆CPU包含一個中央的I/O die和四個3D垂直堆疊die,并集成SRAM,預計2027年出貨。
今年9月,博通還展示了一種帶有光學模塊的AI計算ASIC,實現片間光互連。博通在制造中使用了FOWLP封裝技術,將CPO模塊與AI ASIC封裝在一起,大幅降低了系統延遲,還實現了可插拔的激光器設計,便于數據中心維護。
目前來看,在AI計算中極為重要的互連技術上,博通擁有很強大的技術積累,這也為其ASIC定制服務建立了穩固的壁壘。從客戶群來看,博通在財報中透露,目前正在與三家非常大型的云計算客戶開發AI芯片,并預計到2027年,每個客戶都將在網絡集群中部署100萬個AI芯片,屆時市場對定制AI ASIC的需求容量將高達600億-900億美元。
ASIC跑AI,大廠的專屬玩物
最近大廠開發ASIC的消息頻出,在博通公布財報的前一天,就傳出蘋果與博通合作,開發面向AI推理的ASIC芯片,將采用臺積電N3P工藝,計劃在2026年投入生產。而亞馬遜也在月初公布了AI芯片Trn2UltraServer和Amazon EC2Trn2的應用實例,展示出ASIC的應用性價比遠超GPU。
但可能大家也發現,目前定制開發高算力ASIC的廠商,無一例外是云計算大廠,本身公司業務就有極大規模的算力需求。這是由于ASIC的定制費用較高,需要有足夠龐大的規模才能分攤前期定制開發費用。
ASIC定制費用,主要是開發過程中的一次性工程費用,也被業內稱為NRE(Non-Recurring Engineering)。顧名思義,NRE費用只需要支出一次,后續規模生產中不需要再增加這部分費用。
NRE費用中,包含芯片設計的成本,比如研發人員薪酬、EDA工具授權費等,這與芯片使用的制程工藝、芯片本身的復雜程度相關;然后是版圖設計成本,其實這里的概念跟芯片設計的成本類似,主要是涉及芯片的物理布局設計,需要特定的研發人員和軟件支持;再是IP授權費用,一般是一些通用的IP,比如CPU IP、內存控制器、接口IP等。
以定制一款采用5nm制程的ASIC為例,NRE費用可以高達1億至2億美元。然而一旦能夠大規模出貨,NRE費用就可以很大程度上被攤薄。
博通也提到,未來每個客戶將在網絡集群中部署100萬片AI芯片,即使其中只有30萬片是定制的ASIC,那么分攤到每一片芯片上的NRE費用就大約只要300-600美元,相比GPU的成本有明顯的優勢。而據業內人士分析,中等復雜程度的ASIC盈虧平衡點在10萬片左右。
小結:
盡管目前英偉達GPU在AI訓練、推理的應用中還是處于一家獨大的地位,但ASIC的成本效益,讓各大大模型廠商不得不開始考慮轉向ASIC。加上谷歌推出的Gemini2.0已經開始帶頭使用自家的TPU來進行訓練和推理,以往ASIC不適用于AI訓練的刻板印象也逐步被打破。
如果ASIC的成本效益未來能被進一步開發至極致,那么至少像百度、阿里、谷歌、騰訊、華為這樣的集大模型開發和云計算服務于一體的互聯網巨頭,會先擺脫在AI大模型上對GPU的依賴。
-
博通
+關注
關注
35文章
4333瀏覽量
107489
發布評論請先 登錄
一夜爆火的DeepSeek一體機,如何改寫AI游戲規則?

壁仞科技支持DeepSeek-V3滿血版訓練推理
燧原科技助力美圖AI換裝全球爆火
讓大模型訓練更高效,奇異摩爾用互聯創新方案定義下一代AI計算

GPU是如何訓練AI大模型的
訓練AI大模型需要什么樣的gpu
NVIDIA助力麗蟾科技打造AI訓練與推理加速解決方案

評論