女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

與CPU相比,人工智能芯片有何獨特之處?

我快閉嘴 ? 來源:中電網 ? 作者:中電網 ? 2020-07-16 13:53 ? 次閱讀

全球規模最大的北美消費電子產品展在美國拉斯維加斯拉開帷幕。本次參展的科技企業超過4000家,包括高通英偉達英特爾、LG、IBM、百度在內的業界科技巨頭紛紛發布了各自最新的人工智能芯片產品和戰略,作為本屆展會的最大看點,人工智能芯片產品無疑受到了最為廣泛的關注。

CPU比較,人工智能芯片有何不同?

當AlphaGo在圍棋大戰中完勝柯潔后,各大媒體對人工智能的討論就不絕于耳,甚至有人擔心機器會具備自主思維,終有一天會像電影《終結者》中的場景一樣對人類造成生存威脅。不管這種危機是否存在,但必須認識到人工智能芯片在架構和功能特點上與傳統的CPU是有著非常大的區別。

傳統的CPU運行的所有的軟件是由程序員編寫,完成的固化的功能操作。其計算過程主要體現在執行指令這個環節。但與傳統的計算模式不同,人工智能要模仿的是人腦的神經網絡,從最基本的單元上模擬了人類大腦的運行機制。它不需要人為的提取所需解決問題的特征或者總結規律來進行編程

人工智能是在大量的樣本數據基礎上,通過神經網絡算法訓練數據,建立了輸入數據和輸出數據之間的映射關系,其最直接的應用是在分類識別方面。例如訓練樣本的輸入是語音數據,訓練后的神經網絡實現的功能就是語音識別,如果訓練樣本輸入是人臉圖像數據,訓練后實現的功能就是人臉識別。

通常來說,人工智能包括機器學習深度學習,但不管是機器學習還是深度學習都需要構建算法和模式,以實現對數據樣本的反復運算和訓練,降低對人工理解功能原理的要求。因此,人工智能芯片需要具備高性能的并行計算能力,同時要能支持當前的各種人工神經網絡算法。傳統CPU由于計算能力弱,難以支撐深度學習的海量數據并行運算,且串行的內部結構設計架構為的是以軟件編程的方式實現設定的功能,并不適合應用于人工神經網絡算法的自主迭代運算。傳統CPU架構往往需要數百甚至上千條指令才能完成一個神經元的處理,在AI芯片上可能只需要一條指令就能完成。

解讀主流的人工智能芯片

人工智能的高級階段是深度學習,而對于深度學習過程則可分為訓練和推斷兩個環節:訓練環節通常需要通過大量的數據輸入或采取增強學習等非監督學習方法,訓練出一個復雜的深度神經網絡模型。訓練過程由于涉及海量的訓練數據和復雜的深度神經網絡結構,需要的計算規模非常龐大,通常需要GPU集群訓練幾天甚至數周的時間,在訓練環節GPU目前暫時扮演著難以輕易替代的角色。推斷環節指利用訓練好的模型,使用新的數據去“推斷”出各種結論,如視頻監控設備通過后臺的深度神經網絡模型,判斷一張抓拍到的人臉是否屬于黑名單。雖然推斷環節的計算量相比訓練環節少,但仍然涉及大量的矩陣運算。

在推斷環節,除了使用CPU或GPU進行運算外,FPGA以及ASIC均能發揮重大作用。目前,主流的人工智能芯片基本都是以GPU、FPGA、ASIC以及類腦芯片為主。

1.FPGA

即專用集成電路,一種集成大量基本門電路及存儲器的芯片,可通過燒入FPGA配置文件來來定義這些門電路及存儲器間的連線,從而實現特定的功能。而且燒入的內容是可配置的,通過配置特定的文件可將FPGA轉變為不同的處理器,就如一塊可重復刷寫的白板一樣。FPGA有低延遲的特點,非常適合在推斷環節支撐海量的用戶實時計算請求,如語音識別。由于FPGA適合用于低延遲的流式計算密集型任務處理,意味著FPGA芯片做面向與海量用戶高并發的云端推斷,相比GPU具備更低計算延遲的優勢,能夠提供更佳的消費者體驗。在這個領域,主流的廠商包括Intel亞馬遜、百度、微軟和阿里云。

2.ASIC

即專用集成電路,不可配置的高度定制專用芯片。特點是需要大量的研發投入,如果不能保證出貨量其單顆成本難以下降,而且芯片的功能一旦流片后則無更改余地,若市場深度學習方向一旦改變,ASIC前期投入將無法回收,意味著ASIC具有較大的市場風險。但ASIC作為專用芯片性能高于FPGA,如能實現高出貨量,其單顆成本可做到遠低于FPGA。

谷歌推出的TPU就是一款針對深度學習加速的ASIC芯片,而且TPU被安裝到AlphaGo系統中。但谷歌推出的第一代TPU僅能用于推斷,不可用于訓練模型,但隨著TPU 2.0的發布,新一代TPU除了可以支持推斷以外,還能高效支持訓練環節的深度網絡加速。根據谷歌披露的測試數據,谷歌在自身的深度學習翻譯模型的實踐中,如果在32塊頂級GPU上并行訓練,需要一整天的訓練時間,而在TPU2.0上,八分之一個TPU Pod(TPU集群,每64個TPU組成一個Pod)就能在6個小時內完成同樣的訓練任務。

3.GPU

即圖形處理器。最初是用在個人電腦、工作站、游戲機和一些移動設備上運行繪圖運算工作的微處理器,可以快速地處理圖像上的每一個像素點。后來科學家發現,其海量數據并行運算的能力與深度學習需求不謀而合,因此,被最先引入深度學習。2011年吳恩達教授率先將其應用于谷歌大腦中便取得驚人效果,結果表明,12顆英偉達的GPU可以提供相當于2000顆CPU的深度學習性能,之后紐約大學、多倫多大學以及瑞士人工智能實驗室的研究人員紛紛在GPU上加速其深度神經網絡。

GPU之所以會被選為超算的硬件,是因為目前要求最高的計算問題正好非常適合并行執行。一個主要的例子就是深度學習,這是人工智能(AI)最先進的領域。深度學習以神經網絡為基礎。神經網絡是巨大的網狀結構,其中的節點連接非常復雜。訓練一個神經網絡學習,很像我們大腦在學習時,建立和增強神經元之間的聯系。從計算的角度說,這個學習過程可以是并行的,因此它可以用GPU硬件來加速。這種機器學習需要的例子數量很多,同樣也可以用并行計算來加速。在GPU上進行的神經網絡訓練能比CPU系統快許多倍。目前,全球70%的GPU芯片市場都被NVIDIA占據,包括谷歌、微軟、亞馬遜等巨頭也通過購買NVIDIA的GPU產品擴大自己數據中心的AI計算能力。

4.類人腦芯片

類人腦芯片架構是一款模擬人腦的新型芯片編程架構,這種芯片的功能類似于大腦的神經突觸,處理器類似于神經元,而其通訊系統類似于神經纖維,可以允許開發者為類人腦芯片設計應用程序。通過這種神經元網絡系統,計算機可以感知、記憶和處理大量不同的情況。

IBM的 True North芯片就是其中一個。2014年,IBM首次推出了True North類人腦芯片,這款芯片集合了54億個晶體管,構成了一個有100萬個模擬神經元的網絡,這些神經元由數量龐大的模擬神經突觸動相連接。True North處理能力相當于1600萬個神經元和40億個神經突觸,在執行圖象識別與綜合感官處理等復雜認知任務時,效率要遠遠高于傳統芯片。
責任編輯:tzh

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 芯片
    +關注

    關注

    459

    文章

    52275

    瀏覽量

    437321
  • cpu
    cpu
    +關注

    關注

    68

    文章

    11051

    瀏覽量

    216207
  • 人工智能
    +關注

    關注

    1804

    文章

    48806

    瀏覽量

    247160
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    開售RK3576 高性能人工智能主板

    ,HDMI-4K 輸出,支 持千兆以太網,WiFi,USB 擴展/重力感應/RS232/RS485/IO 擴展/I2C 擴展/MIPI 攝像頭/紅外遙控 器等功能,豐富的接口,一個全新八核擁有超強性能的人工智能
    發表于 04-23 10:55

    蘋果或與博通攜手研發人工智能芯片

    據消息人士透露,蘋果公司正在與博通公司攜手研發一款人工智能芯片,并計劃于2026年啟動生產。蘋果的高級機器學習和人工智能總監Benoit Dupin最近表示,該公司正在考慮使用亞馬遜最新的人工
    的頭像 發表于 12-12 14:01 ?521次閱讀

    嵌入式和人工智能究竟是什么關系?

    人工智能的結合,無疑是科技發展中的一場革命。在人工智能硬件加速中,嵌入式系統以其獨特的優勢和重要性,發揮著不可或缺的作用。通過深度學習和神經網絡等算法,嵌入式系統能夠高效地處理大量數據,從而實現
    發表于 11-14 16:39

    SOC芯片人工智能中的應用

    人工智能技術正在改變我們的生活和工作方式。從智能手機的語音助手到復雜的自動駕駛汽車,AI技術的應用無處不在。SOC芯片作為實現這些技術的關鍵硬件,集成了處理器、存儲器、輸入/輸出接口等多種功能,為
    的頭像 發表于 10-31 15:44 ?2471次閱讀

    《AI for Science:人工智能驅動科學創新》第6章人AI與能源科學讀后感

    、優化等方面的應用了更清晰的認識。特別是書中提到的基于大數據和機器學習的能源管理系統,通過實時監測和分析能源數據,實現了能源的高效利用和智能化管理。 其次,第6章通過多個案例展示了人工智能在能源科學中
    發表于 10-14 09:27

    AI for Science:人工智能驅動科學創新》第4章-AI與生命科學讀后感

    很幸運社區給我一個閱讀此書的機會,感謝平臺。 《AI for Science:人工智能驅動科學創新》第4章關于AI與生命科學的部分,為我們揭示了人工智能技術在生命科學領域中的廣泛應用和深遠影響。在
    發表于 10-14 09:21

    《AI for Science:人工智能驅動科學創新》第一章人工智能驅動的科學創新學習心得

    周末收到一本新書,非常高興,也非常感謝平臺提供閱讀機會。 這是一本挺好的書,包裝精美,內容詳實,干活滿滿。 《AI for Science:人工智能驅動科學創新》這本書的第一章,作為整個著作的開篇
    發表于 10-14 09:12

    risc-v在人工智能圖像處理應用前景分析

    人工智能推薦系統中強大的圖形處理器(GPU)一爭高下。其獨特的設計使得該處理器在功耗受限的條件下仍能實現高性能的圖像處理任務。 Ceremorphic公司 :該公司開發的分層學習處理器結合了
    發表于 09-28 11:00

    人工智能ai 數電 模電 模擬集成電路原理 電路分析

    人工智能ai 數電 模電 模擬集成電路原理 電路分析 想問下哪些比較容易學 不過好像都是要學的
    發表于 09-26 15:24

    人工智能ai4s試讀申請

    目前人工智能在繪畫對話等大模型領域應用廣闊,ai4s也是方興未艾。但是如何有效利用ai4s工具助力科研是個需要研究的課題,本書對ai4s基本原理和原則,方法進行描訴,有利于總結經驗,擬按照要求準備相關體會材料。看能否有助于入門和提高ss
    發表于 09-09 15:36

    名單公布!【書籍評測活動NO.44】AI for Science:人工智能驅動科學創新

    芯片設計的自動化水平、優化半導體制造和封測的工藝和水平、尋找新一代半導體材料等方面提供幫助。 第6章介紹了人工智能在化石能源科學研究、可再生能源科學研究、能源轉型三個方面的落地應用。 第7章從環境監測
    發表于 09-09 13:54

    報名開啟!深圳(國際)通用人工智能大會將啟幕,國內外大咖齊聚話AI

    8月28日至30日,2024深圳(國際)通用人工智能大會暨深圳(國際)通用人工智能產業博覽會將在深圳國際會展中心(寶安)舉辦。大會以“魅力AI·無限未來”為主題,致力于打造全球通用人工智能領域集產品
    發表于 08-22 15:00

    FPGA在人工智能中的應用哪些?

    FPGA(現場可編程門陣列)在人工智能領域的應用非常廣泛,主要體現在以下幾個方面: 一、深度學習加速 訓練和推理過程加速:FPGA可以用來加速深度學習的訓練和推理過程。由于其高并行性和低延遲特性
    發表于 07-29 17:05

    人工智能模型哪些

    人工智能(Artificial Intelligence, AI)作為21世紀最具影響力的技術之一,正以前所未有的速度改變著我們的生活、工作乃至整個社會結構。AI模型作為AI技術的核心,是實現智能
    的頭像 發表于 07-04 17:28 ?1956次閱讀

    人工智能神經網絡芯片的介紹

    : 概述 人工智能神經網絡芯片是一種新型的處理器,它們基于神經網絡的計算模型,通過模擬人腦神經元的連接和交互方式,實現對數據的高效處理。與傳統的CPU和GPU相比,神經網絡
    的頭像 發表于 07-04 09:33 ?1328次閱讀