電子發燒友網報道(文/李彎彎)近日,據知情人士透露,OpenAI近期已開始租用谷歌的張量處理單元(TPU),為旗下ChatGPT等熱門產品提供算力支持。這一舉措不僅標志著OpenAI首次實質性地使用非英偉達芯片,更顯示出其正在逐步擺脫對英偉達芯片的深度依賴,在算力布局上邁出了重要戰略調整的一步。
OpenAI依賴英偉達GPU的算力支持
在人工智能飛速發展的當下,OpenAI作為行業領軍者,對算力的需求呈現出爆發式增長。以OpenAI推出的模型為例,當推出參數規模達1750億的GPT - 3模型時,其訓練消耗的算力相當于30萬顆CPU全年不間斷運行。這種指數級的算力需求增長,在2024年達到新高度,谷歌Gemini、百度文心一言4.0等多模態大模型的訓練算力需求較上一代提升5 - 8倍,單個模型訓練成本突破千萬美元大關。
在此之前,英偉達的GPU一直是OpenAI開展模型訓練以及推理計算工作的核心依賴。英偉達GPU憑借其強大的性能,在AI板塊占據著主導地位,成為眾多科技企業進行AI研發的首選。OpenAI作為英偉達GPU的重要大客戶,長期通過與微軟和甲骨文的合作獲取英偉達芯片,用于模型訓練與部署。
英偉達數據中心級GPU雖性能卓越,但在高負荷運行場景下也面臨諸多問題。其實際使用壽命通常為1到3年,高強度工作負載會使芯片老化加速,超高功耗壓力也直接縮短了芯片壽命,且故障率隨使用時間增加而上升。隨著AI技術的持續發展和模型復雜度的不斷提升,OpenAI對算力的需求愈發迫切,同時也在尋求更具性價比和可持續性的算力解決方案。
谷歌AI芯片展現出媲美英偉達B200芯片的實力
此次OpenAI租用谷歌TPU,無疑是在算力布局上的一次重大嘗試。谷歌在年度云大會上正式發布的第七代TPU——Ironwood,堪稱AI芯片領域的“性能怪獸”。這款專為推理設計的AI加速器,是谷歌迄今為止性能最強、可擴展性最高的定制AI芯片。與2018年發布的初代TPU相比,Ironwood的推理性能提升了驚人的3600倍,效率提升了29倍,這一性能飛躍使其足以與英偉達的B200芯片相媲美,甚至在某些方面略勝一籌。
Ironwood在多個關鍵指標上表現卓越。功耗效率方面,相比第六代TPU Trillium,實現了2倍的提升,比初代Cloud TPU高出近30倍,谷歌的液冷解決方案和優化的芯片設計,使其在持續、繁重的AI工作負載下,能維持高達標準風冷兩倍的性能。
高帶寬內存(HBM)容量上,Ironwood芯片搭載了高達192GB的顯存,是Trillium的6倍,能夠處理更大的模型和數據集,減少頻繁數據傳輸的需求,進而提高性能。HBM帶寬提升到了7.2Tbps,是Trillium的4.5倍,極高的帶寬確保了快速的數據訪問,對現代AI中常見的內存密集型工作負載至關重要。
芯片間互連(ICI)帶寬增強,雙向帶寬已增加到1.2Tbps,是Trillium的1.5倍,這種芯片之間更快的通信,有助于大規模高效的分布式訓練和推理。
對于谷歌Cloud客戶,Ironwood可根據AI工作負載需求提供兩種規格——256芯片或9216芯片。每個單獨的芯片峰值算力達4614TFLOPs,當擴展到每個pod 9216個芯片時,總計達到42.5Exaflop,其算力是世界上最大的超級計算機El Capitan的24倍以上。
總結
OpenAI租用谷歌AI芯片這一舉措,無論是對OpenAI自身,還是對整個AI芯片市場,都具有深遠意義。對OpenAI而言,這有助于其擺脫對單一芯片供應商和數據中心的高度依賴,在算力布局上獲得更大的靈活性和自主性,降低算力成本,為業務的持續擴展提供有力支撐。對于AI芯片市場,谷歌TPU憑借其強大的性能和成本優勢,有望打破英偉達GPU一家獨大的局面,促進市場的多元化競爭,推動AI芯片技術的不斷創新和發展。
-
英偉達
+關注
關注
22文章
3952瀏覽量
93748 -
OpenAI
+關注
關注
9文章
1208瀏覽量
8914
發布評論請先 登錄
英偉達Blackwell芯片機架出現故障 訂單下滑
微軟大手筆采購英偉達AI芯片

英偉達與谷歌聯手加速量子計算設備設計
英偉達與谷歌攜手加速量子計算設備設計
英偉達新一代AI芯片過熱問題引關注
英偉達市值飆升,逼近蘋果
蘋果、英偉達或攜手參投OpenAI新一輪融資
AI芯片巨頭英偉達漲超4% 英偉達市值暴增7500億
蘋果AI模型訓練新動向:攜手谷歌,未選英偉達

評論