女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

用Chiplet解決ASIC在LLM上的成本問題

E4Life ? 來源:電子發燒友網 ? 作者:周凱揚 ? 2023-07-18 00:15 ? 次閱讀

電子發燒友網報道(文/周凱揚)雖說最近靠著GPT大語言模型的熱度,英偉達之類的主流GPU公司賺得盆滿缽滿,但要說仗著GPU的高性能就能高枕無憂的話,也就未免有些癡人說夢了。未來隨著LLM的繼續發展,訓練與推理如果要花費同樣的硬件成本,那么即便是大廠也難以負擔。

所以不少廠商都在追求如何削減TCO(總擁有成本)的辦法,有的從網絡結構出發,有的從自研ASIC出發的,但收效甚微,到最后還是得花大價錢購置更多的GPU。而來自華盛頓大學和悉尼大學的幾位研究人員,在近期鼓搗出的Chiplet Cloud架構,卻有可能顛覆這一現狀。

TCO居高不下的因素

對于大部分廠商來說,純粹的TCO并不是他們考慮的首要因素,他們更關注的是同一性能下如何實現更低的TCO。當下,限制GPU在LLM推理性能上的主要因素之一,不是Tensor核心的利用率,而是內存帶寬。

比如在更小的batch size和普通的推理序列長度下,內存帶寬就會限制對模型參數的讀取,比如把參數從HBM加載到片上寄存器,因為全連接層中的GeMM(通用矩陣乘)計算強度不高,幾乎每次計算都需要加載新的參數。

而Chiplet Cloud為了獲得更好的TCO與性能比,選擇了片上SRAM而不是HBM的外部內存方案,將所有模型參數和中間數據(比如K和V向量等)緩存到片上內存中去,從而實現了比傳統的DDR、HBM2e更好的單Token TCO表現,同時也獲得了更大的內存帶寬。

Chiplet Cloud,作為基于chiplet的ASIC AI超算架構,正是專為LLM減少生成單個Token所需的TCO成本設計的。從他們給出的評估數據對比來看,與目前主流的GPU和TPU對比,只有Chiplet Cloud對于TCO/Token做了極致的優化。比如在GPT-3上,32個Chiplet Cloud服務器相較32個DGX A100服務器的TCO成本改善了94倍,在PaLM 540B上,30個Chiplet Cloud服務器相較64個TPUv4芯片將TCO改善了15倍。
wKgZomS1FPWAOS6YAAC_p1YvQu0512.png

更靈活的Chiplet方案

為什么選擇Chiplet呢?我們先來看一個極端的堆片上內存的例子,也就是直接選擇晶圓級的“巨芯”,比如Cerebras Systems打造的WSE-2芯片。該芯片基于7nm工藝下的一整片12英寸晶圓打造,集成了2.6萬億個晶體管,面積達到46255mm2,片上內存更是達到了40GB。

但這樣的巨芯設計意味著高昂的制造成本,所以Chiplet Cloud的研究人員認為更大的SRAM應該與相對較小的芯片對應,這樣才能減少制造成本,所以他們選擇了chiplet的設計方式。近來流行的Chiplet方案提高了制造良率,也減少了制造成本,允許在不同的系統層級上進行設計的重復利用。

以臺積電7nm工藝為例,要想做到0.1/cm2的缺陷密度,一個750mm2芯片的單價是一個150mm2芯片單價的兩倍,所以Chiplet的小芯片設計成本更低。重復利用的設計也可以進一步降低成本,加快設計周期,為ASIC芯片提供更高的靈活性。

Chiplet Cloud更適合哪些廠商

雖然論文中提到了不少Chiplet Cloud的優點,但這依然是一個尚未得到實際產品驗證的架構,擁有驗證實力的公司往往也只有微軟、谷歌、亞馬遜以及阿里巴巴這類具備芯片設計實力的公司。況且ASIC終究是一種特化的方案,最清楚云平臺計算負載需要哪些優化,還得是云服務廠商自己。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 芯片
    +關注

    關注

    459

    文章

    52201

    瀏覽量

    436410
  • asic
    +關注

    關注

    34

    文章

    1243

    瀏覽量

    122003
  • chiplet
    +關注

    關注

    6

    文章

    453

    瀏覽量

    12872
  • LLM
    LLM
    +關注

    關注

    1

    文章

    320

    瀏覽量

    686
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    無法OVMS運行來自Meta的大型語言模型 (LLM),為什么?

    無法 OVMS 運行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲庫運行 llama_chat Python* Demo 時遇到錯誤。
    發表于 03-05 08:07

    小白學大模型:構建LLM的關鍵步驟

    隨著大規模語言模型(LLM性能、成本和應用前景的快速發展,越來越多的團隊開始探索如何自主訓練LLM模型。然而,是否從零開始訓練一個
    的頭像 發表于 01-09 12:12 ?842次閱讀
    小白學大模型:構建<b class='flag-5'>LLM</b>的關鍵步驟

    Neuchips展示大模型推理ASIC芯片

    領先的AI專用集成電路(ASIC)解決方案提供商NeuchipsCES 2024展示了其革命性的Raptor Gen AI加速芯片(以前稱為N3000)和Evo PCIe加速卡LLM
    的頭像 發表于 01-06 17:30 ?639次閱讀

    NVIDIA TensorRT-LLM Roadmap現已在GitHub公開發布

    感謝眾多用戶及合作伙伴一直以來對NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 現已在 GitHub 公開發布!
    的頭像 發表于 11-28 10:43 ?622次閱讀
    NVIDIA TensorRT-<b class='flag-5'>LLM</b> Roadmap現已在GitHub<b class='flag-5'>上</b>公開發布

    Chiplet技術有哪些優勢

    Chiplet技術,就像樂高積木拼搭玩具一樣,將芯片的不同功能模塊,例如CPU、GPU、內存等,分別制造成獨立的小芯片。
    的頭像 發表于 11-27 15:53 ?987次閱讀

    什么是LLMLLM自然語言處理中的應用

    所未有的精度和效率處理和生成自然語言。 LLM的基本原理 LLM基于深度學習技術,尤其是變換器(Transformer)架構。變換器模型因其自注意力(Self-Attention)機制而聞名,這種機制使得模型能夠捕捉文本中的長距離依賴關系。
    的頭像 發表于 11-19 15:32 ?3372次閱讀

    LLM技術對人工智能發展的影響

    。 一、LLM技術人工智能領域的應用 自然語言處理(NLP) LLM技術自然語言處理領域發揮著重要作用。通過訓練模型識別和生成語言模式,LLM
    的頭像 發表于 11-08 09:28 ?1784次閱讀

    LLM和傳統機器學習的區別

    人工智能領域,LLM(Large Language Models,大型語言模型)和傳統機器學習是兩種不同的技術路徑,它們處理數據、模型結構、應用場景等方面有著顯著的差異。 1. 模型結構
    的頭像 發表于 11-08 09:25 ?1717次閱讀

    IMEC組建汽車Chiplet聯盟

    、西門子、SiliconAuto、Synopsys、Tenstorrent和Valeo等在內的多家行業巨頭加入。 ACP的目標是通過聯合全球汽車產業鏈的主要玩家,共同研究和開發Chiplet技術,以
    的頭像 發表于 10-15 13:36 ?560次閱讀
    IMEC組建汽車<b class='flag-5'>Chiplet</b>聯盟

    創新型Chiplet異構集成模式,為不同場景提供低成本、高靈活解決方案

    顆是原生支持Transformer全系算子的AI Chiplet“大熊星座”。 ? Chiplet 集成模式提供低成本、高靈活解決方案 ? 隨著摩爾定律逐步放緩以及先進封裝等技術的發展,高性能計算芯片的迭代無需再僅僅圍繞摩爾定律
    的頭像 發表于 08-19 00:02 ?4012次閱讀

    ASIC IP核移植到FPGA——更新概念并推動改變以完成充滿挑戰的任務!

    使用預先定制功能即IP核的必要性開始,通過闡述開發ASIC原型設計時需要考慮到的IP核相關因素,八個重要主題詳細分享了利用ASIC所用IP來FPGA
    的頭像 發表于 08-10 17:13 ?1039次閱讀
    將<b class='flag-5'>ASIC</b> IP核移植到FPGA<b class='flag-5'>上</b>——更新概念并推動改變以完成充滿挑戰的任務!

    llm模型訓練一般什么系統

    LLM(Large Language Model,大型語言模型)是近年來自然語言處理領域取得顯著成果的一種深度學習模型。它通常需要大量的計算資源和數據來進行訓練。以下是關于LLM模型訓練系統的介紹
    的頭像 發表于 07-09 10:02 ?753次閱讀

    llm模型有哪些格式

    LLM(Large Language Model,大型語言模型)是一種深度學習模型,主要用于處理自然語言處理(NLP)任務。LLM模型的格式多種多樣,以下是一些常見的LLM模型格式
    的頭像 發表于 07-09 09:59 ?1300次閱讀

    LLM模型的應用領域

    本文中,我們將深入探討LLM(Large Language Model,大型語言模型)的應用領域。LLM是一種基于深度學習的人工智能技術,它能夠理解和生成自然語言文本。近年來,隨著計算能力的提高
    的頭像 發表于 07-09 09:52 ?1180次閱讀

    什么是LLMLLM的工作原理和結構

    隨著人工智能技術的飛速發展,大型語言模型(Large Language Model,簡稱LLM)逐漸成為自然語言處理(NLP)領域的研究熱點。LLM以其強大的文本生成、理解和推理能力,文本
    的頭像 發表于 07-02 11:45 ?1.3w次閱讀