女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

英偉達發布新一代H200,搭載HBM3e,推理速度是H100兩倍!

Carol Li ? 來源:電子發燒友網 ? 作者:李彎彎 ? 2023-11-15 01:15 ? 次閱讀

電子發燒友網報道(文/李彎彎)日前,英偉達正式宣布,在目前最強AI芯片H100的基礎上進行一次大升級,發布新一代H200芯片。H200擁有141GB的內存、4.8TB/秒的帶寬,并將與H100相互兼容,在推理速度上幾乎達到H100的兩倍。H200預計將于明年二季度開始交付。此外,英偉達還透露,下一代Blackwell B100 GPU也將在2024年推出。

wKgZomVTSeqAc4mwAABD6e_8I4c101.jpg
英偉達新發布的H200性能大幅提升(來源:英偉達官網)


首款搭載HBM3e的GPU,推理速度幾乎是H100的兩倍

與A100和H100相比,H200最大的變化就是內存。搭載世界上最快的內存HBM3e技術的H200在性能上得到了直接提升,141GB的內存幾乎是A100和H100最高80GB內存的2倍,4.8TB每秒的帶寬達到A100的2.4倍,顯著高于H100 3.35TB每秒的帶寬。

今年早些時候,就有消息稱,包括英偉達在內,全球多個科技巨頭都在競購SK海力士第五代高帶寬內存HBM3e。 HBM是由AMD和SK海力士發起的基于3D堆棧工藝的高性能DRAM,適用于高存儲器帶寬需求的應用場合。如今HBM已經發展出HBM2、HBM2e以及HBM3,HBM3e是HBM3的新一代產品。英偉達、AMD等企業的高端AI芯片大多搭載HBM。

電子發燒友此前報道過,英偉達歷代主流訓練芯片基本都配置HBM,其2016年發布的首個采用帕斯卡架構的顯卡TeslaP100已搭載了HBM2,隨后TeslaV100也采用了HBM2;2017年初,英偉達發布的Quadro系列專業卡中的旗艦GP100也采用了HBM2;2021年推出的TeslaA100計算卡也搭載了HBM2E,2022年推出了面向大陸地區的A800,同樣也配置HBM2E;2022年推出了市面上最強的面向AI服務器的GPU卡H100,采用的HBM3。

AMD今年6月推出的號稱是最強的AI芯片MI300X,就是搭載由SK海力士及三星電子供應的HBM。AMD稱,MI300X提供的HBM密度最高是英偉達AI芯片H100的2.4倍,其HBM帶寬最高是H100的1.6倍。這意味著,AMD的芯片可以運行比英偉達芯片更大的模型。

如今英偉達新發布的H200搭載HBM3e,可想而知在性能上將會更上一層。H200配備141GB的HBM3e內存,運行速率約為6.25 Gbps,六個HBM3e堆棧為每個GPU帶來4.8 TB/s的總帶寬。原有的H100配備80GB的HBM3,對應的總帶寬為3.35 TB/s,這是一個巨大的進步。相比于H100的SXM版本,H200的SXM版本將內存容量和總帶寬分別提高了76%和43%。

英偉達表示,基于與H100相同的Hopper架構,H200將具有H100的一切功能,例如可以用來加速基于Transformer架構搭建的深度學習模型的Transformer Engine功能。

根據其官網信息,H200在大模型Llama 2、GPT-3.5的輸出速度上分別是H100的1.9倍和1.6倍,在高性能計算HPC方面的速度更是達到了雙核x86 CPU的110倍。

TF32 Tensor Core(張量核心)中,H200可達到989萬億次浮點運算;INT8張量核心下提供3,958 TFLOPS(每秒3958萬億次的浮點運算)。

不僅如此,基于H200芯片構建的HGX H200加速服務器平臺,擁有 NVLink 和 NVSwitch的高速互連支持。8個HGX H200則提供超過32 petaflops(每秒1000萬億次的浮點運算)的FP8深度學習計算和 1.1TB 聚合高帶寬內存,可為科學研究和 AI 等應用的工作負載提供更高的性能支持,包括超1750億參數的大模型訓練和推理。

英偉達副總裁Ian Buck表示,為了訓練生成式AI和高性能計算應用,必須使用高性能GPU。有了H200,行業領先的AI超級計算平臺可以更快地解決一些世界上最重要的挑戰。

目前,英偉達的全球合作伙伴服務器制造商生態系統包括華擎 Rack、華碩、戴爾科技、Eviden、技嘉、慧與、英格拉科技、聯想、QCT、Supermicro、緯創資通和緯穎科技等,可以直接使用H200更新其現有系統。除了英偉達自己投資的CoreWeave、Lambda和 Vultr之外,亞馬遜網絡服務、谷歌云、微軟Azure 和甲骨文云等云服務提供商將從明年開始首批部署H200。

如果沒有獲得出口許可,新H200不會銷往中國

這款H200能否對華出口也是大家關心的問題。對此,英偉達表示,如果沒有出口許可,新的H200將不會銷往中國。去年9月,英偉達高端GPU對中國出口就受到限制,當時英偉達表示,美國通過公司向中國出口A100和H100芯片將需要新的許可證要求,同時DGX或任何其他包含A100或H100芯片的產品,以及未來性能高于A100的芯片都將受到新規管制。

根據美國商務部的法規,其主要限制的是算力和帶寬,算力上線是4800 TOPS,帶寬上線是600 GB/s。為了應對這個問題,英偉達后來向中國企業提供了替代版本A800和H800。A800的帶寬為400GB/s,低于A100的600GB/s,H800據透露約為H100的一半。這意味著A800、H800在進行AI模型訓練的時候,需要耗費更長的時間。

然而美國政府認為,H800在某些情況下算力仍然不亞于H100。為了進一步加強對AI芯片的出口管制,美國計劃用多項新的標準來替換掉之前針對“帶寬參數”。今年10月,美國商務部工業與安全局(BIS)發布更新針對AI芯片的出口管制規定,根據新規定,美國商務部計劃引入一項被稱為“性能密度”的參數,來防止企業尋找到變通的方案,修訂后的出口管制措施將禁止美國企業向中國出售運行速度達到300teraflops(即每秒可計算 3億次運算)及以上的數據中心芯片。根據這樣的規定,在沒有獲得許可的情況下,英偉達新發布的H200必然是沒有辦法向中國企業出售。


事實上,在美國政府今年10月發布的新規下,英偉達不少產品都在限制范圍內,包括但并不限于A100、A800、H100、H800、L40、L40 以及RTX 4090。任何集成了一個或多個以上芯片的系統,包括但不限于英偉達DGX、HGX系統,也在新規涵蓋范圍之內。

針對此情況,有消息稱,本月初英偉達已經向經銷商公布“中國特供版”HGX H20、L20 PCle、L2 PCle產品信息,分別針對訓練、推理和邊緣場景,最快將于11月16日公布,量產時間為2023年12月至2024年1月。其中,HGX H20在帶寬、計算速度等方面均有所限制,理論綜合算力要比英偉達H100降80%左右。

此外,據英特爾供應鏈透露,英特爾也已經針對最新發布的Gaudi2推出降規版出貨,預計將不受新禁令影響。不過無論是英偉達,還是英特爾針對中國市場推出的特供版,可想而知性能必然是會大打折扣的,而且從美國政府的舉措來看,特供版是否能夠長久供應也是未知數。

總結

可以看到,英偉達此次發布的H100,是全球首款搭載HBM3e的GPU,擁有141GB的內存、4.8TB/秒的帶寬,推理速度幾乎達到H100的兩倍。可想而知,有了H200,當前備受關注的AI大模型的訓練和部署應用將會得到更快速地發展。


聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 英偉達
    +關注

    關注

    22

    文章

    3921

    瀏覽量

    93109
  • HBM3
    +關注

    關注

    0

    文章

    74

    瀏覽量

    284
  • HBM3E
    +關注

    關注

    0

    文章

    79

    瀏覽量

    419
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    GPU 維修干貨 | 英偉 GPU H100 常見故障有哪些?

    ABSTRACT摘要本文主要介紹英偉H100常見的故障類型和問題。JAEALOT2025年5月5日今年,國家政府報告提出要持續推進“人工智能+”行動,大力發展人工智能行業,市場上對算力的需求持續
    的頭像 發表于 05-05 09:03 ?369次閱讀
    GPU 維修干貨 | <b class='flag-5'>英偉</b><b class='flag-5'>達</b> GPU <b class='flag-5'>H100</b> 常見故障有哪些?

    三星與英偉高層會晤,商討HBM3E供應

    其高帶寬存儲器HBM3E產品中的初始缺陷問題,并就三星第五HBM3E產品向英偉供應的相關事宜進行了深入討論。 此次高層會晤引發了外界的廣
    的頭像 發表于 02-18 11:00 ?483次閱讀

    英偉A100H100比較

    英偉A100H100都是針對高性能計算和人工智能任務設計的GPU,但在性能和特性上存在顯著差異。以下是對這款GPU的比較: 1. 架構
    的頭像 發表于 02-10 17:05 ?3475次閱讀
    <b class='flag-5'>英偉</b><b class='flag-5'>達</b>A<b class='flag-5'>100</b>和<b class='flag-5'>H100</b>比較

    英偉H100芯片市場降溫

    隨著英偉新一代AI芯片GB200需求的不斷攀升,其上一代明星產品H100芯片卻遭遇了市場的冷落
    的頭像 發表于 10-28 15:42 ?1454次閱讀

    亞馬遜云科技宣布Amazon EC2 P5e實例正式可用 由英偉H200 GPU提供支持

    現已正式可用。亞馬遜云科技是首個將英偉H200 GPU用于生產環境的領先云提供商。與基于英偉H100
    的頭像 發表于 09-19 16:16 ?785次閱讀

    三星電子HBM3E內存獲英偉認證,加速AI GPU市場布局

    近日,知名市場研究機構TrendForce在最新發布的報告中宣布了項重要進展:三星電子的HBM3E內存產品已成功通過英偉驗證,并正式開啟
    的頭像 發表于 09-05 17:15 ?958次閱讀

    TrendForce:三星HBM3E內存通過英偉驗證,8Hi版本正式出貨

    9月4日最新資訊,據TrendForce集邦咨詢的最新報告透露,三星電子已成功完成其HBM3E內存產品的驗證流程,并正式啟動了HBM3E 8Hi(即24GB容量版本)的出貨,該產品主要面向英偉
    的頭像 發表于 09-04 15:57 ?991次閱讀

    三星HBM3E內存挑戰英偉訂單,SK海力士霸主地位受撼動

    進入八月,市場傳言四起,韓國存儲芯片巨頭三星電子(簡稱“三星”)的8層HBM3E內存(新一代高帶寬內存產品)已順利通過英偉嚴格測試。然而,三星迅速澄清,表示這
    的頭像 發表于 08-23 15:02 ?973次閱讀

    英偉或取消B100轉用B200A代替

    今年3月份,英偉在美國加利福尼亞州圣何塞會議中心召開的GTC 2024大會上推出了Blackwell架構GPU。原定于今年底出貨的B100/B20
    的頭像 發表于 08-08 17:19 ?849次閱讀

    三星否認HBM3E芯片通過英偉測試

    近日,有關三星的8層HBM3E芯片已通過英偉測試的報道引起了廣泛關注。然而,三星電子迅速對此傳聞進行了回應,明確表示該報道并不屬實。
    的頭像 發表于 08-08 10:06 ?808次閱讀

    三星電子否認HBM3e芯片通過英偉測試

    韓國新聞源NewDaily近日發布則報道,聲稱三星電子的HBM3e芯片已成功通過英偉的產品測試,預示著即將開啟大規模生產并向
    的頭像 發表于 07-05 16:09 ?829次閱讀

    三星否認HBM3E通過英偉測試傳聞

    近期,有媒體報道稱三星電子已成功通過英偉(NVIDIA)的HBM3E(高帶寬內存)質量測試,并預計很快將啟動量產流程,以滿足市場對高性能存儲解決方案的迫切需求。然而,這消息迅速遭到
    的頭像 發表于 07-05 15:08 ?933次閱讀

    英偉H200芯片將大規模交付

    英偉AI GPU市場迎來新動態,其H200型號上游芯片端已于第二季度下旬正式進入量產階段,預示著該產品將在第三季度后迎來大量交付。然而,英偉
    的頭像 發表于 07-04 10:29 ?1147次閱讀

    英偉H200芯片量產在即,引領AI計算新時代

    在科技日新月異的今天,每次技術的飛躍都預示著行業格局的深刻變革。7月3日,臺灣媒體《工商時報》傳來重磅消息,英偉(NVIDIA)的旗艦級AI計算產品——
    的頭像 發表于 07-03 16:22 ?1133次閱讀

    英偉巨資預訂HBM3E,力拼上半年算力市場

    在全球AI芯片領域的激烈競爭中,英偉以其卓越的技術實力和市場影響力,始終保持著領先地位。最近,這家AI芯片大廠再次展現出了其獨特的戰略眼光和強大的資金實力,以確保其新品GH200H200
    的頭像 發表于 06-22 16:46 ?1183次閱讀