AI服務(wù)器出貨動(dòng)能強(qiáng)勁帶動(dòng)HBM(high bandwidth memory高頻寬存儲(chǔ)器)需求提升,預(yù)計(jì)2023年AI服務(wù)器出貨量年增15.4%。
據(jù)TrendForce研究顯示,2022年三大原廠HBM市占率分別為SK海力士(SK hynix)50%、三星電子(Samsung)約40%、美光科技(Micron)約10%。此外,高級(jí)深度學(xué)習(xí)AI GPU的規(guī)格也刺激HBM產(chǎn)品更迭,2023下半年伴隨NVIDIA H100與AMD MI300的搭載,三大原廠也已規(guī)劃相對(duì)應(yīng)規(guī)格HBM3的量產(chǎn)。因此,在今年有更多客戶(hù)將導(dǎo)入HBM3的預(yù)期下,SK海力士作為目前唯一量產(chǎn)新世代HBM3產(chǎn)品的供應(yīng)商,其整體HBM市占率可望借此提升至53%,而三星、美光則預(yù)計(jì)陸續(xù)在今年年底至明年初量產(chǎn),HBM市占率分別為38%及9%。
目前英偉達(dá)NVIDIA所定義的DL/ ML型AI服務(wù)器平均每臺(tái)均搭載4張或8張高級(jí)顯卡,搭配兩顆主流型號(hào)的x86服務(wù)器CPU,而主要拉貨力道來(lái)自于美系云端業(yè)者Google、AWS、Meta與Microsoft。據(jù)TrendForce統(tǒng)計(jì),2022年高級(jí)搭載GPGPU的服務(wù)器出貨量年增約9%,其中近80%的出貨量均集中在中、美系八大云端業(yè)者。展望2023年,微軟Microsoft、臉書(shū)Meta、百度與字節(jié)跳動(dòng)相繼推出基于生成式AI衍生的產(chǎn)品服務(wù)而積極加單,預(yù)估今年AI服務(wù)器出貨量年增率可望達(dá)15.4%,2023~2027年AI服務(wù)器出貨量年復(fù)合成長(zhǎng)率約12.2%。
根據(jù)TrendForce調(diào)查,AI服務(wù)器可望帶存儲(chǔ)器需求成長(zhǎng),以現(xiàn)階段而言,Server DRAM普遍配置約為500至600GB左右,而AI服務(wù)器在單條模組上則多采64至128GB,平均容量可達(dá)1.2~1.7TB之間。以Enterprise SSD而言,由于AI服務(wù)器追求的速度更高,其要求往往優(yōu)先于DRAM或HBM滿(mǎn)足,在SSD固態(tài)硬盤(pán)的容量提升上則呈現(xiàn)非必要擴(kuò)大容量的態(tài)勢(shì),但在傳輸界面上,則會(huì)為了高速運(yùn)算的需求而優(yōu)先采用PCIe 5.0。而相較于一般服務(wù)器而言,AI服務(wù)器多增加GPGPU的使用,因此以英偉達(dá)NVIDIA A100 80GB配置4或8張采計(jì),HBM用量約為320至640GB。未來(lái)在AI模型逐漸復(fù)雜化的趨勢(shì)下,將刺激更多的存儲(chǔ)器用量,并同步帶動(dòng)Server DRAM、SSD以及HBM的需求成長(zhǎng)。
審核編輯 黃宇
-
存儲(chǔ)器
+關(guān)注
關(guān)注
38文章
7637瀏覽量
166455 -
服務(wù)器
+關(guān)注
關(guān)注
13文章
9702瀏覽量
87318 -
AI
+關(guān)注
關(guān)注
87文章
34294瀏覽量
275477
發(fā)布評(píng)論請(qǐng)先 登錄
蔡司工業(yè)CT無(wú)損亞微米級(jí)高速檢測(cè)AI連接器

英偉達(dá)GB200 NVL72服務(wù)器出貨量調(diào)低
鴻海董事長(zhǎng)預(yù)測(cè):2025年AI服務(wù)器出貨量將超2024年
海外輕量云服務(wù)器是什么意思?如何使用
英特爾調(diào)降明年AI服務(wù)器芯片出貨目標(biāo)
Intel或大幅下調(diào)其AI服務(wù)器芯片Gaudi 3的出貨目標(biāo)
超微電腦AI服務(wù)器出貨數(shù)據(jù)彰顯強(qiáng)勁需求
海外輕量云服務(wù)器是什么
什么是AI服務(wù)器?AI服務(wù)器的優(yōu)勢(shì)是什么?
AI云服務(wù)器:開(kāi)啟智能計(jì)算新時(shí)代
艾為電子推出高可靠性的系列化I2C接口芯片

評(píng)論