女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

增強機器學習能力的“左膀右臂”的GPU、FPGA芯片

mK5P_AItists ? 來源:未知 ? 作者:李倩 ? 2018-06-19 15:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

在商業軟件中,電腦芯片已被遺忘。對于商業應用程序來說,這是一種商品。由于機器人技術與個人硬件設備聯系更為緊密,因而制造應用程序仍然更側重于硬件部分。

自20世紀70年代以來,整體上看,人工智能AI)的現狀,以及具體到深度學習(DL)領域,硬件與軟件的關系比任何時候都聯系地更加緊密。而我最近幾篇“管理人工智能(management AI)”的文章與過度擬合和偏見有關,機器學習(ML)系統中存在的兩個主要風險。本專欄將深入探討許多管理人員,尤其是業務線經理可能會處理的硬件縮略詞問題,這些縮略詞在機器學習系統中被不斷提及:圖形處理單元(Graphics Processing Unit ,GPU)和現場可編程門陣列(Field Programmable Gate Array ,FPGA)。

這有助于理解GPU的價值,因為GPU加速了深度學習應用程序所需的張量(tensor)處理。FPGA的興趣點則在于尋找研究新AI算法的途徑,訓練這些系統,并開始部署現在正在許多工業AI應用中研究的低容量定制系統。盡管這是關于FPGA進行訓練的能力研究討論,但我認為早期使用是源于F,現場(field)的使用。

例如,訓練一個推理引擎(機器學習“機器”的核心)可能需要千兆字節,甚至兆兆字節的數據。在數據中心運行推理時,計算機必須管理一個潛在的不斷增加中的并發用戶請求數。在邊緣應用程序中,無論是在用于檢查管道的無人機中還是在智能手機中,設備都必須很小且仍然有效,而且還具有適應性。簡單地說,一個CPU和一個GPU是兩個器件,而一個FPGA可以有不同的塊做不同的事情,并有可能提供一個穩健的芯片系統。鑒于所有這些不同的需求,最好了解可支持不同需求的系統架構的當前狀態。

有兩類主要的芯片設計可以驅動當前的ML系統,GPU和FPGA。在未來的中期(至少幾年),也有可能成為游戲轉換者的新技術暗示。讓我們來看看。

圖形處理單元(GPU)

機器學習世界中最大的芯片是圖形處理單元GPU。這個主要用于電腦游戲,讓其在計算機顯示器上看起來更好的東西是如何變得對機器學習至關重要的?要理解這一點,我們必須回到軟件層。

機器學習目前的冠軍是Deep Learning(DL)系統。DL系統基于各種算法,包括深度神經網絡(DNN),卷積神經網絡(CNN),遞歸神經網絡(RNN)以及許多其他變體。你在這三個術語中看到的關鍵詞是“網絡(network)”。算法是一個主題的變體,主題是幾層節點, 節點和層之間有不同類型的通信

正在處理的是多個陣列或矩陣。矩陣(matrix)的另一個更為精確的術語是張量(tensor),因此它在整個機器學習行業中用于諸如TensorFlow之類。

現在回到你的電腦屏幕。您可以將它按行和列看作是像素或點的矩陣。這是一個二維矩陣或張量。當你添加顏色,添加到每個像素的位大小,想要一個快速變化的一致圖像的時候,計算可以很快變得復雜并且在一步一步的CPU中占用周期。而GPU擁有自己的內存,可以將整個圖形圖像保存為矩陣。然后可以使用張量數學計算圖像中的變化,然后只更改屏幕上受影響的像素。這個過程比每次更改圖像時重新繪制整個屏幕要快得多。

NVIDIA成立于1993年,旨在創建一個芯片來解決諸如CPU等通用計算機無法解決的矩陣問題。這是GPU的誕生。

矩陣運算并不關心最終產品是什么,而只是處理元素。這是一種輕微的過度簡化,因為不同的運算依稀疏矩陣(當有很多零時)與密集矩陣的不同而有不同的工作方式,但內容不會改變運算,這個事實依然存在。當深度學習理論學者看到GPU的發展時,他們很快就采用其來加速張量運算。

GPU對機器學習的發展至關重要,推動了數據中心的訓練和推理。例如,NVIDIA Volta V100 Tensor Core在其基本架構和以更低精度運行推理的能力方面繼續加速推進(這將是另一個話題,意味著更少的位,即意味著更快的處理)。但是,當涉及物聯網時還有其他問題需要考慮。

現場可編程門陣列(FPGA)

在現場(field)中,所有類型的應用程序都有不同的需求。有很多不同的應用領域,車輛,管線,機器人等等。不同行業可以為每種類型的應用設計不同的芯片,但這可能會非常昂貴并且會破壞公司的投資回報率。還可能推遲上市時間,錯過重要的商業機會。對于那些不能提供足夠規模經濟市場的高度個性化需求而言,情況尤其如此。

FPGA是幫助公司和研究人員解決問題的芯片。FPGA是一種集成電路,可以編程為多種用途。它有一系列“可編程邏輯塊”和一種編程塊和塊之間關系的方法。它是一種通用工具,可以為多種用途進行定制。主要供應商包括賽靈思(Xinlinx)和美國國家儀器(National Instruments)。

值得注意的是,芯片設計成本較低的問題并不能使FPGA成為低價位的選擇。它們通常最適用于研究或工業應用。電路和設計的復雜性使其可編程,不適用于低成本的消費類應用。

由于FPGA可以重新編程,這使得其對于新興的機器學習領域來說很有價值。不斷增加算法,并通過重新編程塊來針對不同算法進行微調。此外,低精度推斷的低功耗FPGA對于遠程傳感器來說是一個很好的組合。雖然發明人將“現場(field)”更多地稱為“客戶(customer)”,但FPGA在實現AI應用方面的真正優勢在實際領域中。無論是對于工廠、道路和管道等基礎設施,還是無人機遠程檢測,FPGA都允許系統設計人員靈活地使用一塊硬件,以實現多種用途,從而實現更簡單的物理設計,從而可以更加容易地進行現場應用。

新體系結構即將到來

GPU和FPGA是目前正在幫助解決如何擴大機器學習對許多市場影響的挑戰的技術。他們所做的是讓更多人關注這個行業的發展,并試圖及時創建新的架構來應用。

一方面,許多公司試圖在GPU上學習張量運算的教訓。惠普、IBM和英特爾都有開發專門用于深度學習的下一代張量運算設備的項目。與此同時,像Cambricon、Graphcore和Wave Computing這樣的初創公司也在努力做同樣的事情。

另一方面,ArmIntel和其他公司正在設計架構,以充分利用GPU和CPU,并使器件也瞄準機器學習市場,據稱能夠做的不僅僅是集中張量運算,對于圍繞核心AI流程的其他處理也更加強大。

雖然上述一些組織專注于數據中心和其他物聯網,但現在談論其中的任何一個都為時尚早。

從全球公司到初創公司,一個告誡是,除了最早的信息外,還沒有其他信息出現。如果我們最遲在2020年看到最早的器件樣品,那么這將是一個驚喜,所以它們至少在五年內不會上市。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • FPGA
    +關注

    關注

    1645

    文章

    22049

    瀏覽量

    618392
  • 機器人
    +關注

    關注

    213

    文章

    29735

    瀏覽量

    212859
  • 機器學習
    +關注

    關注

    66

    文章

    8503

    瀏覽量

    134601

原文標題:GPU、FPGA芯片成為增強機器學習能力的“左膀右臂”

文章出處:【微信號:AItists,微信公眾號:人工智能學家】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    相比GPU和GPP,FPGA是深度學習的未來?

    相比GPU和GPP,FPGA在滿足深度學習的硬件需求上提供了具有吸引力的替代方案。憑借流水線并行計算的能力和高效的能耗,FPGA將在一般的深
    發表于 07-28 12:16 ?7570次閱讀

    FPGA在深度學習應用中或將取代GPU

    現場可編程門陣列 (FPGA) 解決了 GPU 在運行深度學習模型時面臨的許多問題 在過去的十年里,人工智能的再一次興起使顯卡行業受益匪淺。英偉達 (Nvidia) 和 AMD 等公司的股價也大幅
    發表于 03-21 15:19

    從CPU、GPU再到TPU,Google的AI芯片是如何一步步進化過來的?

    智能回復、聲音搜索等,對于機器學習算法硬件上的支持也越來越成為一種需要。目前很多的機器學習以及圖像處理算法大部分都跑在GPU
    發表于 03-15 11:40

    FPGA 超越 GPU,問鼎下一代深度學習主引擎

    GPU體現優勢的領域”,Randy Huang博士表示:“我們鼓勵其他開發人員和研究人員與我們一起重新表述機器學習問題,以充分發揮 FPGA 更小位數處理
    發表于 04-27 14:10

    為什么說FPGA并不會取代CPU和GPU成為機器人開發的新寵兒?

    最近我們看到一篇文章,說FPGA可能會取代CPU和GPU成為將來機器人研發領域的主要芯片。文章列舉了很多表格和實驗數據,證明了在很多領域FPGA
    發表于 10-09 08:33

    什么是機器學習? 機器學習基礎入門

    它有多高性能。相反,在機器學習中非常常見的向量和矩陣數學操作與圖形處理應用程序并無不同,這就是為什么 GPU 已經成為模型開發的流行選擇。鑒于對強大計算能力的需求,云已經成為事實上卸載
    發表于 06-21 11:06

    什么是深度學習?使用FPGA進行深度學習的好處?

    上述分類之外,還被用于多項任務(下面顯示了四個示例)。在 FPGA 上進行深度學習的好處我們已經提到,許多服務和技術都使用深度學習,而 GPU 大量用于這些計算。這是因為矩陣乘法作為深
    發表于 02-17 16:56

    FPGA、ASIC有望在機器學習領域中崛起

    機器學習已經被廣泛的的使用在了各個領域,在一年之內它的成長速度超過了預期。同時隨著AI芯片的發展,在以后,FPGA和ASIC芯片將有望成為
    發表于 12-26 10:46 ?1319次閱讀

    FPGA、ASIC將在機器學習領域崛起

    盡管GPU仍是當前的機器學習市場的主流,但有產業觀察家已經預見了FPGA、ASIC在機器學習領域
    的頭像 發表于 01-06 10:01 ?5273次閱讀

    深度學習方案ASIC、FPGAGPU比較 哪種更有潛力

    幾乎所有深度學習的研究者都在使用GPU,但是對比深度學習硬鑒方案,ASIC、FPGAGPU三種究竟哪款更被看好?主要是認清對深度
    發表于 02-02 15:21 ?1.1w次閱讀
    深度<b class='flag-5'>學習</b>方案ASIC、<b class='flag-5'>FPGA</b>、<b class='flag-5'>GPU</b>比較 哪種更有潛力

    介紹GPUFPGA的幾個方面和看法

    除了芯片性能外,GPU相對于FPGA還有一個優勢就是內存接口。GPU的內存接口(傳統的GDDR,最近更是用上了HBM和HBM2)的帶寬遠好于FPGA
    發表于 09-15 09:15 ?1051次閱讀

    FPGA芯片將成為未來增強機器學習左膀右臂

    在商業軟件中,電腦芯片已被遺忘。對于商業應用程序來說,這是一種商品。由于機器人技術與個人硬件設備聯系更為緊密,因而制造應用程序仍然更側重于硬件部分。
    發表于 10-24 23:11 ?778次閱讀

    基于5個問題闡述GPU增強AI和機器學習技術中的作用

    基于5個問題闡述GPU增強AI和機器學習技術中的作用。 在21世紀初期,研究人員意識到,由于機器學習
    的頭像 發表于 01-30 10:42 ?1296次閱讀

    FPGA還是GPU?AI主芯片將如何選擇

    類相同的方式做出決策的非人類機器智能。這包括沉思、適應能力、意圖能力和判斷力。機器視覺、機器人自動化、認知計算、
    的頭像 發表于 02-05 22:35 ?1626次閱讀

    FPGA機器學習中的具體應用

    隨著機器學習和人工智能技術的迅猛發展,傳統的中央處理單元(CPU)和圖形處理單元(GPU)已經無法滿足高效處理大規模數據和復雜模型的需求。FPGA(現場可編程門陣列)作為一種靈活且高效
    的頭像 發表于 07-16 15:34 ?298次閱讀