女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI芯片和傳統(tǒng)芯片的區(qū)別與應用

旺材芯片 ? 來源:yxw ? 2019-06-06 10:53 ? 次閱讀

所謂的AI芯片,一般是指針對AI算法ASIC(專用芯片)。

傳統(tǒng)的CPUGPU都可以拿來執(zhí)行AI算法,但是速度慢,性能低,無法實際商用。

比如,自動駕駛需要識別道路行人紅綠燈等狀況,但是如果是當前的CPU去算,那么估計車翻到河里了還沒發(fā)現(xiàn)前方是河,這是速度慢,時間就是生命。如果用GPU,的確速度要快得多,但是,功耗大,汽車的電池估計無法長時間支撐正常使用,而且,老黃家的GPU巨貴,經(jīng)常單塊上萬,普通消費者也用不起,還經(jīng)常缺貨。另外,GPU因為不是專門針對AI算法開發(fā)的ASIC,所以,說到底,速度還沒到極限,還有提升空間。而類似智能駕駛這樣的領(lǐng)域,必須快!在手機終端,可以自行人臉識別、語音識別等AI應用,這個必須功耗低,所以GPU OUT!

所以,開發(fā)ASIC就成了必然。

說說,為什么需要AI芯片。

AI算法,在圖像識別等領(lǐng)域,常用的是CNN卷積網(wǎng)絡,語音識別、自然語言處理等領(lǐng)域,主要是RNN,這是兩類有區(qū)別的算法。但是,他們本質(zhì)上,都是矩陣或vector的乘法、加法,然后配合一些除法、指數(shù)等算法。

一個成熟的AI算法,比如YOLO-V3,就是大量的卷積、殘差網(wǎng)絡、全連接等類型的計算,本質(zhì)是乘法和加法。對于YOLO-V3來說,如果確定了具體的輸入圖形尺寸,那么總的乘法加法計算次數(shù)是確定的。比如一萬億次。(真實的情況比這個大得多的多)

那么要快速執(zhí)行一次YOLO-V3,就必須執(zhí)行完一萬億次的加法乘法次數(shù)。

這個時候就來看了,比如IBM的POWER8,最先進的服務器用超標量CPU之一,4GHz,SIMD,128bit,假設(shè)是處理16bit的數(shù)據(jù),那就是8個數(shù),那么一個周期,最多執(zhí)行8個乘加計算。一次最多執(zhí)行16個操作。這還是理論上,其實是不大可能的。

那么CPU一秒鐘的巔峰計算次數(shù)=16X4Gops=64Gops。

這樣,可以算算CPU計算一次的時間了。

同樣的,換成GPU算算,也能知道執(zhí)行時間。因為對GPU內(nèi)部結(jié)構(gòu)不熟,所以不做具體分析。

再來說說AI芯片。比如大名鼎鼎的谷歌的TPU1。

TPU1,大約700M Hz,有256X256尺寸的脈動陣列,如下圖所示。一共256X256=64K個乘加單元,每個單元一次可執(zhí)行一個乘法和一個加法。那就是128K個操作。(乘法算一個,加法再算一個)

另外,除了脈動陣列,還有其他模塊,比如激活等,這些里面也有乘法、加法等。

所以,看看TPU1一秒鐘的巔峰計算次數(shù)至少是=128K X 700MHz=89600Gops=大約90Tops。

對比一下CPU與TPU1,會發(fā)現(xiàn)計算能力有幾個數(shù)量級的差距,這就是為啥說CPU慢。

當然,以上的數(shù)據(jù)都是完全最理想的理論值,實際情況,能夠達到5%吧。因為,芯片上的存儲不夠大,所以數(shù)據(jù)會存儲在DRAM中,從DRAM取數(shù)據(jù)很慢的,所以,乘法邏輯往往要等待。另外,AI算法有許多層網(wǎng)絡組成,必須一層一層的算,所以,在切換層的時候,乘法邏輯又是休息的,所以,諸多因素造成了實際的芯片并不能達到利潤的計算峰值,而且差距還極大。

可能有人要說,搞研究慢一點也能將就用。

目前來看,神經(jīng)網(wǎng)絡的尺寸是越來越大,參數(shù)越來越多,遇到大型NN模型,訓練需要花幾周甚至一兩個月的時候,你會耐心等待么?突然斷電,一切重來?(曾經(jīng)動手訓練一個寫小說的AI,然后,一次訓練(50輪)需要大約一天一夜還多,記得如果第一天早上開始訓練,需要到第二天下午才可能完成,這還是模型比較簡單,數(shù)據(jù)只有幾萬條的小模型呀。)

修改了模型,需要幾個星期才能知道對錯,確定等得起?

突然有了TPU,然后你發(fā)現(xiàn),吃個午飯回來就好了,參數(shù)優(yōu)化一下,繼續(xù)跑,多么爽!

計算速度快,才能迅速反復迭代,研發(fā)出更強的AI模型。速度就是金錢。

GPU的內(nèi)核結(jié)構(gòu)不清楚,所以就不比較了。肯定的是,GPU還是比較快的,至少比CPU快得多,所以目前大多數(shù)都用GPU,這玩意隨便一個都能價格輕松上萬,太貴,而且,功耗高,經(jīng)常缺貨。不適合數(shù)據(jù)中心大量使用。

總的來說,CPU與GPU并不是AI專用芯片,為了實現(xiàn)其他功能,內(nèi)部有大量其他邏輯,而這些邏輯對于目前的AI算法來說是完全用不上的,所以,自然造成CPU與GPU并不能達到最優(yōu)的性價比。

谷歌花錢研發(fā)TPU,而且目前已經(jīng)出了TPU3,用得還挺歡,都開始支持谷歌云計算服務了,貌似6點幾美元每小時吧,不記得單位了,懶得查.

可見,谷歌覺得很有必要自己研發(fā)TPU。

看到有答案點我名說不應該用CPU做對比,這個鍋我不背。

做一點解釋。

目前在圖像識別、語音識別、自然語言處理等領(lǐng)域,精度最高的算法就是基于深度學習的,傳統(tǒng)的機器學習的計算精度已經(jīng)被超越,目前應用最廣的算法,估計非深度學習莫屬,而且,傳統(tǒng)機器學習的計算量與 深度學習比起來少很多,所以,我討論AI芯片時就針對計算量特別大的深度學習而言。畢竟,計算量小的算法,說實話,CPU已經(jīng)很快了。而且,CPU適合執(zhí)行調(diào)度復雜的算法,這一點是GPU與AI芯片都做不到的,所以他們?nèi)咧皇轻槍Σ煌膽脠鼍岸眩加懈髯缘闹鲌觥?/p>

至于為何用了CPU做對比?

而沒有具體說GPU。是因為,我說了,我目前沒有系統(tǒng)查看過GPU的論文,不了解GPU的情況,故不做分析。因為積累的緣故,比較熟悉超標量CPU,所以就用熟悉的CPU做詳細比較。而且,小型的網(wǎng)絡,完全可以用CPU去訓練,沒啥大問題,最多慢一點。只要不是太大的網(wǎng)絡模型。

那些AI算法公司,比如曠世、商湯等,他們的模型很大,自然也不是一塊GPU就能搞定的。GPU的算力也是很有限的。

至于說CPU是串行,GPU是并行。

沒錯,但是不全面。只說說CPU串行。這位網(wǎng)友估計對CPU沒有非常深入的理解。我的回答中舉的CPU是IBM的POWER8,百度一下就知道,這是超標量的服務器用CPU,目前來看,性能已經(jīng)是非常頂級的了,主頻4GHZ。不知是否注意到我說了這是SIMD?這個SIMD,就代表他可以同時執(zhí)行多條同樣的指令,這就是并行,而不是串行。單個數(shù)據(jù)是128bit的,如果是16bit的精度,那么一周期理論上最多可以計算八組數(shù)據(jù)的乘法或加法,或者乘加。這還不叫并行?只是并行的程度沒有GPU那么厲害而已,但是,這也是并行。

不知道為啥就不能用CPU來比較算力?

有評論很推崇GPU。說用CPU來做比較,不合適。

拜托,GPU本來是從CPU中分離出來專門處理圖像計算的,也就是說,GPU是專門處理圖像計算的。包括各種特效的顯示。這也是GPU的天生的缺陷,GPU更加針對圖像的渲染等計算算法。但是,這些算法,與深度學習的算法還是有比較大的區(qū)別,而我的回答里提到的AI芯片,比如TPU,這個是專門針對CNN等典型深度學習算法而開發(fā)的。另外,寒武紀的NPU,也是專門針對神經(jīng)網(wǎng)絡的,與TPU類似。

谷歌的TPU,寒武紀的DianNao,這些AI芯片剛出道的時候,就是用CPU/GPU來對比的。

回顧一下歷史。

上個世紀出現(xiàn)神經(jīng)網(wǎng)絡的時候,那一定是用CPU計算的。

比特幣剛出來,那也是用CPU在挖。目前已經(jīng)進化成ASIC礦機了。比特大陸了解一下。

從2006年開始開啟的深度學習熱潮,CPU與GPU都能計算,發(fā)現(xiàn)GPU速度更快,但是貴啊,更多用的是CPU,而且,那時候GPU的CUDA可還不怎么樣,后來,隨著NN模型越來越大,GPU的優(yōu)勢越來越明顯,CUDA也越來越6,目前就成了GPU的專場。

寒武紀2014年的DianNao(NPU)比CPU快,而且更加節(jié)能。ASIC的優(yōu)勢很明顯啊。這也是為啥要開發(fā)ASIC的理由。

至于說很多公司的方案是可編程的,也就是大多數(shù)與FPGA配合。你說的是商湯、深鑒么?的確,他們發(fā)表的論文,就是基于FPGA的。

這些創(chuàng)業(yè)公司,他們更多研究的是算法,至于芯片,還不是重點,另外,他們暫時還沒有那個精力與實力。FPGA非常靈活,成本不高,可以很快實現(xiàn)架構(gòu)設(shè)計原型,所以他們自然會選擇基于FPGA的方案。不過,最近他們都大力融資,官網(wǎng)也在招聘芯片設(shè)計崗位,所以,應該也在涉足ASIC研發(fā)了。

如果以FPGA為代表的可編程方案真的有巨大的商業(yè)價值,那他們何必砸錢去做ASIC?

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 芯片
    +關(guān)注

    關(guān)注

    459

    文章

    52201

    瀏覽量

    436411
  • asic
    +關(guān)注

    關(guān)注

    34

    文章

    1243

    瀏覽量

    122003
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4912

    瀏覽量

    130675
  • AI芯片
    +關(guān)注

    關(guān)注

    17

    文章

    1968

    瀏覽量

    35696

原文標題:精華 | AI 芯片和傳統(tǒng)芯片的區(qū)別

文章出處:【微信號:wc_ysj,微信公眾號:旺材芯片】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    EVASH芯片公司接入DeepSeek:AI驅(qū)動的芯片設(shè)計革新

    EVASH芯片公司接入DeepSeek:AI驅(qū)動的芯片設(shè)計革新
    的頭像 發(fā)表于 03-03 17:45 ?354次閱讀

    AI芯片上的應用:革新設(shè)計與功能

    AI芯片上的應用正在深刻改變著芯片設(shè)計、制造和應用的全過程。未來,隨著AI技術(shù)的不斷進步和應用場景的不斷拓展,AI
    的頭像 發(fā)表于 02-17 16:09 ?466次閱讀

    ASTRA AI芯片SL1620主要特性及應用詳細介紹

    芯片
    深蕾半導體
    發(fā)布于 :2025年02月13日 11:12:24

    soc芯片傳統(tǒng)芯片的主要區(qū)別在哪

    隨著科技的飛速發(fā)展,半導體行業(yè)也在不斷地推陳出新。SoC(System on a Chip,系統(tǒng)級芯片)作為一種新型的集成電路,正在逐漸取代傳統(tǒng)芯片設(shè)計。 1. 定義與基本概念 傳統(tǒng)
    的頭像 發(fā)表于 11-10 09:15 ?3193次閱讀

    SOC芯片傳統(tǒng)芯片區(qū)別

    隨著電子技術(shù)的發(fā)展,芯片技術(shù)也在不斷進步。SOC(System on Chip)芯片作為一種高度集成的集成電路,已經(jīng)成為現(xiàn)代電子設(shè)備中不可或缺的核心部件。與傳統(tǒng)芯片相比,SOC
    的頭像 發(fā)表于 10-31 14:51 ?2552次閱讀

    AI大模型與傳統(tǒng)機器學習的區(qū)別

    AI大模型與傳統(tǒng)機器學習在多個方面存在顯著的區(qū)別。以下是對這些區(qū)別的介紹: 一、模型規(guī)模與復雜度 AI大模型 :通常包含數(shù)十億甚至數(shù)萬億的參
    的頭像 發(fā)表于 10-23 15:01 ?2387次閱讀

    SoC芯片與CPU芯片有什么區(qū)別

    SoC芯片(System on Chip,片上系統(tǒng))與CPU芯片(Central Processing Unit,中央處理器)在多個方面存在顯著的區(qū)別。以下將從定義、結(jié)構(gòu)、功能、應用場景、設(shè)計考量等多個維度對兩者進行詳細比較。
    的頭像 發(fā)表于 08-05 16:03 ?8846次閱讀

    ai大模型和傳統(tǒng)ai區(qū)別在哪?

    AI大模型和傳統(tǒng)AI區(qū)別主要體現(xiàn)在以下幾個方面: 數(shù)據(jù)量和訓練規(guī)模 AI大模型通常需要大量的數(shù)據(jù)進行訓練,以獲得更好的性能。相比之下,
    的頭像 發(fā)表于 07-16 10:06 ?2451次閱讀

    AI大模型與傳統(tǒng)AI區(qū)別

    AI大模型(如LLM,即大型語言模型)與傳統(tǒng)AI在多個方面存在顯著的區(qū)別。以下將從技術(shù)層面、應用場景、性能表現(xiàn)、計算資源和成本、以及發(fā)展趨勢和挑戰(zhàn)等角度進行詳細闡述。
    的頭像 發(fā)表于 07-15 11:37 ?5357次閱讀

    人工智能芯片與服務器芯片區(qū)別

    人工智能芯片AI芯片)與服務器芯片在多個方面存在顯著差異,這些差異主要體現(xiàn)在設(shè)計目標、功能特性、應用場景以及技術(shù)發(fā)展趨勢上。以下是對兩者區(qū)別
    的頭像 發(fā)表于 07-12 18:21 ?2380次閱讀

    硅光芯片傳統(tǒng)芯片區(qū)別

    材料差異: 硅光芯片主要使用硅作為材料,而傳統(tǒng)芯片則使用硅晶體。硅光芯片利用硅的光學特性,而傳統(tǒng)芯片
    的頭像 發(fā)表于 07-12 09:33 ?9622次閱讀

    生成式AI傳統(tǒng)AI的主要區(qū)別

    隨著人工智能技術(shù)的飛速發(fā)展,生成式AI(Generative AI)逐漸嶄露頭角,并與傳統(tǒng)AI(也稱為“規(guī)則驅(qū)動的AI”或“判別式
    的頭像 發(fā)表于 07-05 17:35 ?5203次閱讀

    神經(jīng)網(wǎng)絡芯片傳統(tǒng)芯片區(qū)別和聯(lián)系

    應運而生,成為解決深度學習計算問題的關(guān)鍵技術(shù)之一。本文將從多個角度探討神經(jīng)網(wǎng)絡芯片傳統(tǒng)芯片區(qū)別和聯(lián)系。 神經(jīng)網(wǎng)絡芯片
    的頭像 發(fā)表于 07-04 09:31 ?1681次閱讀

    神經(jīng)網(wǎng)絡芯片和普通芯片區(qū)別

    神經(jīng)網(wǎng)絡芯片和普通芯片區(qū)別是一個復雜而深入的話題,涉及到計算機科學、電子工程、人工智能等多個領(lǐng)域。 定義 神經(jīng)網(wǎng)絡芯片(Neural Network Processor,簡稱NNP)
    的頭像 發(fā)表于 07-04 09:30 ?2018次閱讀

    AI芯片會導元件中間商消失嗎?

    元件AI芯片
    芯廣場
    發(fā)布于 :2024年06月19日 18:10:01