電子發燒友網報道(文/周凱揚)ChatGPT的出現,對于數據中心硬件市場無疑是一針強心劑,不少GPU廠商更是從中受益,從再度興起的聊天機器人潮流中收獲了更多訂單。那么對于ChatGPT這類對AI算力有著不小需求的應用來說,ASIC和FPGA是否也能借上這股東風呢?
不同硬件的成本對比
在機器學習推理場景中,除了GPU外,還有一大通用AI硬件適合這一負載,那就是FPGA。與GPU一樣,在技術和算法還未成熟且仍在打磨階段時,可以隨時重新編程改變芯片功能的FPGA架構前期硬件成本顯著低于GPU。在推理性能上,現如今的FPGA加速卡算力遠超CPU,甚至高過不少GPU產品。
而且在ChatGPT這樣的聊天機器人應用上,將FPGA用于推理得以發揮其最大的優勢,那就是高吞吐量和低時延。更高的吞吐量和更低的時延也就意味著更大的并發,對ChatGPT這種應用來說可以極大增強其響應速度。 但隨著算法和模型逐漸成熟,FPGA在成本上的優勢就慢慢不存在了,在大語言模型上需要用到更多的硬件,而FPGA量產規模的單價成本還是太高了,一旦擴充至成千上萬張加速卡,其成本也是不小的。比如AMD推出的新加速卡Alveo V70,據傳單卡價格就在2000美元左右。如果我們以INT8精度來衡量算力的話,假設ChatGPT需要28936塊A100 GPU,那么改用Alveo V70的話,也需要44693塊加速卡。
所以還是有不少人將目光投向了量產規模成本更低的ASIC,比如谷歌就選擇用自研的TPU來部署其聊天機器人Bard。ASIC方案在單芯片算力上或許不是最高的,但計算效率卻是最高的,而且隨著量產化單片成本會逐漸降低。比如谷歌的單個TPU v4 Pod就集成了4096個TPU v4芯片,單芯片的BF16算力達到275TFLOPS,已經相當接近A100單卡峰值算力了。如果只是這樣簡單換算的話,只需幾個TPU v4 Pod,就能滿足與ChatGPT同量級的應用了。
不過ASIC方案并沒有我們想象得那么美好,首先這類硬件的前期設計成本較大,要想投入數據中心商用,必須組建強大的硬件設計和軟件開發團隊,這樣才能有與GPU相抗衡的性能。其次,因為本身專用硬件的特性,專用于機器學習推理的ASIC方案很難最大化數據中心的硬件利用率,不像GPU還可以同時用于訓練、視頻編解碼等等。
搭建屬于自己的ChatGPT的成本有多高
對于GPT-3這樣的大型模型來說,要想個人搭建和部署從成本上看肯定不是實惠的選擇,所以我們可以選擇其他的模型,比如Meta推出的1750億參數OPT-175B模型。加州大學伯克利分校的Sky Lab就借助該模型推出了一個開源系統Alpa,同時具備聊天機器人、翻譯、代碼編寫和數學計算的功能。
要想部署OPT-175B模型并搭建Alpa這樣的文字聊天應用,對GPU的要求要遠遠小于ChatGPT。但這是建立在其本身響應速度和功能特性就顯著弱于ChatGPT的情況下,比如一旦設定的回答長度過長,就需要等上數十秒,何況它列出的GPU需求也不算小。
根據Alpa的官方說明,雖然不需要用到最新一代的A100 80GB這樣價格高昂的GPU或是InfiniBand這樣先進的互聯方案,但對顯存的最低要求也已經達到了350GB。所以Alpa給的建議是使用32個英偉達Tesla V100 GPU,從而提供512GB的顯存,這樣硬件造價在50萬到150萬之間。

Tesla V100 GPU / 英偉達
如果你只是想開展聊天機器人的服務,而不是自己買硬件的話,也可以選擇各大公有云服務廠商的方案,比如亞馬遜AWS的EC2 P3系列,就是專為機器學習和HPC準備的實例。每個EC2 P3.16xlarge實例上有8塊Tesla V100 GPU,所以至少租賃4個實例就能運行Alpa了。
不過這樣一來服務器的費用也并不算便宜,單個實例按需付費每小時的花費在24.48美元左右,也就是說如果要全天運行的話,運行Alpa的成本為2400美元一天。哪怕云服務廠商通常都會給到長期承諾使用的折扣,這也是一筆不小的支出。
谷歌推出的Cloud TPU方案也是如此,如果真的打算以租賃服務器的方式來打造ChatGPT,那么谷歌目前給出的按需定價是每芯片小時價格3.22美元。要想部署數萬規模的TPU v4芯片媲美ChatGPT,那么一定逃不掉超高的費用。
結語
不久前我們已經提到了ChatGPT的加入或許會給微軟的現有產品帶來定價的提升,如今這個猜測也已經成真。微軟近日宣布,從今年5月1日開始,微軟Bing搜索API的定價將會直線飆升,其中超大并發(每秒250次處理)的S1實例定價從每千次處理7美元提升至25美元,而額外的Bing統計更是從每千次處理1美元的價格拔高至10美元。如此看來,可見大語言模型的推理成本有多高可見一斑了,哪怕是微軟也經不起這樣燒錢。
所以對于ChatGPT這種應用,其運營者不同,對待硬件成本的看法也會不同,比如微軟、谷歌之類已經擁有大規模服務器硬件的廠商,必然會利用現有GPU資源的同時,考慮如何用定制化的ASIC進一步節省成本。而體量較小的運營者,例如聊天機器人應用開發商、研究機構等,還是會選擇租賃服務器或小規模本地部署,其首選硬件也會是GPU。
再說回FPGA,雖然從目前數據中心的市場現狀來看,FPGA的AI推理加速卡仍處于一個弱勢的位置。但隨著AMD開始推出Alveo V70這樣全新XDNA架構的方案,或許能給未來需要更大吞吐量的模型提供新的出路,尤其是視頻分析推理應用。
不同硬件的成本對比
在機器學習推理場景中,除了GPU外,還有一大通用AI硬件適合這一負載,那就是FPGA。與GPU一樣,在技術和算法還未成熟且仍在打磨階段時,可以隨時重新編程改變芯片功能的FPGA架構前期硬件成本顯著低于GPU。在推理性能上,現如今的FPGA加速卡算力遠超CPU,甚至高過不少GPU產品。
而且在ChatGPT這樣的聊天機器人應用上,將FPGA用于推理得以發揮其最大的優勢,那就是高吞吐量和低時延。更高的吞吐量和更低的時延也就意味著更大的并發,對ChatGPT這種應用來說可以極大增強其響應速度。 但隨著算法和模型逐漸成熟,FPGA在成本上的優勢就慢慢不存在了,在大語言模型上需要用到更多的硬件,而FPGA量產規模的單價成本還是太高了,一旦擴充至成千上萬張加速卡,其成本也是不小的。比如AMD推出的新加速卡Alveo V70,據傳單卡價格就在2000美元左右。如果我們以INT8精度來衡量算力的話,假設ChatGPT需要28936塊A100 GPU,那么改用Alveo V70的話,也需要44693塊加速卡。
所以還是有不少人將目光投向了量產規模成本更低的ASIC,比如谷歌就選擇用自研的TPU來部署其聊天機器人Bard。ASIC方案在單芯片算力上或許不是最高的,但計算效率卻是最高的,而且隨著量產化單片成本會逐漸降低。比如谷歌的單個TPU v4 Pod就集成了4096個TPU v4芯片,單芯片的BF16算力達到275TFLOPS,已經相當接近A100單卡峰值算力了。如果只是這樣簡單換算的話,只需幾個TPU v4 Pod,就能滿足與ChatGPT同量級的應用了。
不過ASIC方案并沒有我們想象得那么美好,首先這類硬件的前期設計成本較大,要想投入數據中心商用,必須組建強大的硬件設計和軟件開發團隊,這樣才能有與GPU相抗衡的性能。其次,因為本身專用硬件的特性,專用于機器學習推理的ASIC方案很難最大化數據中心的硬件利用率,不像GPU還可以同時用于訓練、視頻編解碼等等。
搭建屬于自己的ChatGPT的成本有多高
對于GPT-3這樣的大型模型來說,要想個人搭建和部署從成本上看肯定不是實惠的選擇,所以我們可以選擇其他的模型,比如Meta推出的1750億參數OPT-175B模型。加州大學伯克利分校的Sky Lab就借助該模型推出了一個開源系統Alpa,同時具備聊天機器人、翻譯、代碼編寫和數學計算的功能。
要想部署OPT-175B模型并搭建Alpa這樣的文字聊天應用,對GPU的要求要遠遠小于ChatGPT。但這是建立在其本身響應速度和功能特性就顯著弱于ChatGPT的情況下,比如一旦設定的回答長度過長,就需要等上數十秒,何況它列出的GPU需求也不算小。
根據Alpa的官方說明,雖然不需要用到最新一代的A100 80GB這樣價格高昂的GPU或是InfiniBand這樣先進的互聯方案,但對顯存的最低要求也已經達到了350GB。所以Alpa給的建議是使用32個英偉達Tesla V100 GPU,從而提供512GB的顯存,這樣硬件造價在50萬到150萬之間。

Tesla V100 GPU / 英偉達
不過這樣一來服務器的費用也并不算便宜,單個實例按需付費每小時的花費在24.48美元左右,也就是說如果要全天運行的話,運行Alpa的成本為2400美元一天。哪怕云服務廠商通常都會給到長期承諾使用的折扣,這也是一筆不小的支出。
谷歌推出的Cloud TPU方案也是如此,如果真的打算以租賃服務器的方式來打造ChatGPT,那么谷歌目前給出的按需定價是每芯片小時價格3.22美元。要想部署數萬規模的TPU v4芯片媲美ChatGPT,那么一定逃不掉超高的費用。
結語
不久前我們已經提到了ChatGPT的加入或許會給微軟的現有產品帶來定價的提升,如今這個猜測也已經成真。微軟近日宣布,從今年5月1日開始,微軟Bing搜索API的定價將會直線飆升,其中超大并發(每秒250次處理)的S1實例定價從每千次處理7美元提升至25美元,而額外的Bing統計更是從每千次處理1美元的價格拔高至10美元。如此看來,可見大語言模型的推理成本有多高可見一斑了,哪怕是微軟也經不起這樣燒錢。
所以對于ChatGPT這種應用,其運營者不同,對待硬件成本的看法也會不同,比如微軟、谷歌之類已經擁有大規模服務器硬件的廠商,必然會利用現有GPU資源的同時,考慮如何用定制化的ASIC進一步節省成本。而體量較小的運營者,例如聊天機器人應用開發商、研究機構等,還是會選擇租賃服務器或小規模本地部署,其首選硬件也會是GPU。
再說回FPGA,雖然從目前數據中心的市場現狀來看,FPGA的AI推理加速卡仍處于一個弱勢的位置。但隨著AMD開始推出Alveo V70這樣全新XDNA架構的方案,或許能給未來需要更大吞吐量的模型提供新的出路,尤其是視頻分析推理應用。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
發布評論請先 登錄
相關推薦
熱點推薦
PCBA加工廠常見的體系認證
??隨著汽車行業的興盛,市面上越來越多的汽車流入,帶動了汽車電子的發展,很多PCBA加工廠都想分一杯羹。而汽車電子準入門檻較高,對工廠的技術和設備實力都有著嚴格的審核標準,IATF16949體系技術含金量較高,認證內容也較復雜。一般來說具備該體系認證的廠商都具備
AI推理帶火的ASIC,開發成敗在此一舉!
的應用性價比遠超GPU,加上博通財報AI業務同比大增220%,掀起了AI推理端的ASIC熱潮。 ? 那么ASIC跟傳統的GPU有哪些區別,開發上又有哪些流程上的不同? ?

JESD204B有專用于ADC/DAC和FPGA或ASIC的接口嗎?
請問各位大俠:JESD204B專用于ADC/DAC和FPGA或ASIC的接口嗎,該接口同Rapid/PCIe的物理層Serdes接口有何區別,謝謝!
發表于 02-08 09:10
FPGA+GPU+CPU國產化人工智能平臺
平臺采用國產化FPGA+GPU+CPU構建嵌入式多核異構智算終端,可形成FPGA+GPU、FPGA+CPU、CPU+FPGA等組合模式,形成低功耗、高可擴展性的硬件系統,結合使用場景靈

ASIC和GPU的原理和優勢
芯片”。 準確來說,除了它倆,計算芯片還包括大家更熟悉的CPU,以及FPGA。 行業里,通常會把半導體芯片分為數字芯片和模擬芯片。其中,數字芯片的市場規模占比較大,達到70%左右。 數字芯片,還可以進一步細分,分為:邏輯芯片、存儲芯片以及微控制單元(MCU)。CPU、

FPGA與ASIC的區別 FPGA性能優化技巧
FPGA與ASIC的區別 FPGA(現場可編程門陣列)和ASIC(專用集成電路)是兩種不同的集成電路技術,它們在多個方面存在顯著的區別: FPGA
ASIC集成電路如何提高系統效率
在現代電子系統中,效率和性能是衡量一個系統優劣的關鍵指標。隨著技術的發展,ASIC集成電路因其高度定制化和優化的特性,在提高系統效率方面發揮著越來越重要的作用。 ASIC的定義和特點 ASIC
ASIC集成電路與FPGA的區別
ASIC(專用集成電路)與FPGA(現場可編程門陣列)是兩種不同的集成電路技術,它們在多個方面存在顯著的區別。以下是兩者的主要差異: 一、設計與制造 ASIC 是為特定應用定制設計的集
電源IC U6203DC概述和特點
久坐生活方式已經成為了當今社會的一大公共衛生問題,都市白領、司機、開車一族、學生等,長期坐著的人群,都面臨腰肌勞損問題,所以腰部按摩儀市場正活躍。想要在腰部按摩儀市場分一杯羹的小伙伴,不妨先鎖定專注按摩儀充電器電源ic的廠家——
FPGA和ASIC在大模型推理加速中的應用
隨著現在AI的快速發展,使用FPGA和ASIC進行推理加速的研究也越來越多,從目前的市場來說,有些公司已經有了專門做推理的ASIC,像Groq的LPU,專門針對大語言模型的推理做了優化,因此相比

FPGA與ASIC的優缺點比較
FPGA(現場可編程門陣列)與ASIC(專用集成電路)是兩種不同的硬件實現方式,各自具有獨特的優缺點。以下是對兩者優缺點的比較: FPGA的優點 可編程性強 :FPGA具有高度的可編程
ALINX FPGA+GPU異架構視頻圖像處理開發平臺介紹
Alinx 最新發布的新品 Z19-M 是一款創新的 FPGA+GPU 異構架構視頻圖像處理開發平臺,它結合了 AMD Zynq UltraScale+ MPSoC(FPGA)與 NVIDIA Jetson Orin NX(
將ASIC IP核移植到FPGA上——更新概念并推動改變以完成充滿挑戰的任務!
本系列文章從數字芯片設計項目技術總監的角度出發,介紹了如何將芯片的產品定義與設計和驗證規劃進行結合,詳細講述了在FPGA上使用IP核來開發ASIC原型項目時,必須認真考慮的一些問題。文章從介紹

科普 | 一文了解FPGA
一次性工程費用,用量較小時具有成本優勢。
1)靈活性:通過對 FPGA 編程,FPGA 能夠執行 ASIC 能夠執行的任何邏輯功能。FPGA
發表于 07-08 19:36
評論