女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

華為降低憶阻器對神經(jīng)網(wǎng)絡(luò)的影響專利

汽車玩家 ? 來源:愛集微 ? 作者:嘉德IPR ? 2020-04-13 15:51 ? 次閱讀

華為申請的此項專利,能夠在保證神經(jīng)網(wǎng)絡(luò)精度的前提下,壓縮網(wǎng)絡(luò)模型,同時還能極大地減小了憶阻器器件噪音對神經(jīng)網(wǎng)絡(luò)準確性的影響。

集微網(wǎng)消息,憶阻器全稱記憶電阻,即表示具有記憶能力的電阻,被認為是能夠突破摩爾定律的新方向。有數(shù)據(jù)統(tǒng)計稱,一個憶阻器的工作量相當于一枚CPU芯片中十幾個晶體管共同產(chǎn)生的效用,而國內(nèi)巨頭華為公司也開始“低調(diào)”研發(fā)。

近年來,神經(jīng)網(wǎng)絡(luò)(neural network,NN)計算取得了突破性進展,在圖像識別、語言識別、自然語言處理等諸多領(lǐng)域均取得了很高的準確率。然而神經(jīng)網(wǎng)絡(luò)需要海量計算資源,傳統(tǒng)的通用處理器已經(jīng)很難滿足深度學習的計算需求,設(shè)計專用芯片已經(jīng)成為了一個重要的發(fā)展方向。憶阻器具有高密度、非易失、低功耗、存算合一、易于3D等優(yōu)點,為神經(jīng)網(wǎng)絡(luò)芯片設(shè)計提供了一種高效的解決方案。憶阻器陣列作為神經(jīng)網(wǎng)絡(luò)加速芯片,以加速矩陣乘法運算為主要的設(shè)計目標,整個過程在模擬電路下實現(xiàn),具有速度快,面積小的優(yōu)點。

但是,憶阻器器件在實際應(yīng)用中,存在噪音的問題,即設(shè)置的憶阻器電導值并不精確的等于所需要的值,而是落在期望值附近的一個分布中。如何降低憶阻器器件噪聲對神經(jīng)網(wǎng)絡(luò)的準確性的影響,是亟待解決的問題。

為此,華為申請了一項名為“一種神經(jīng)網(wǎng)絡(luò)訓練方法及裝置”的發(fā)明專利(申請?zhí)枺?01810702883 .9),申請人為華為技術(shù)有限公司。

圖1 神經(jīng)網(wǎng)絡(luò)示意圖

神經(jīng)網(wǎng)絡(luò)的建模通常以若干神經(jīng)元為一層,層與層之間相互連接來構(gòu)建,如圖1所示,是一種鏈狀的神經(jīng)網(wǎng)絡(luò)示意圖。其中圖1中每一個圓表示一個神經(jīng)元,每一個箭頭表示神經(jīng)元之間的連接,每個連接均有權(quán)重。

在神經(jīng)網(wǎng)絡(luò)的應(yīng)用中,矩陣向量乘運算是常見的操作,可以利用憶阻器交叉開關(guān)陣列具有的存儲和計算在同一個物理位置的特性,用憶阻器交叉開關(guān)陣列來進行矩陣向量乘運算來提高神經(jīng)網(wǎng)絡(luò)的計算效率。

華為降低憶阻器對神經(jīng)網(wǎng)絡(luò)的影響專利

圖2 憶阻器開關(guān)陣列

本專利提出的神經(jīng)網(wǎng)絡(luò)訓練方法可以應(yīng)用于如圖2所示的憶阻器開關(guān)陣列,如圖2所示,輸入向量為不同的電壓值V0-Vn,可以表示為向量V,經(jīng)過憶阻器交叉開關(guān)陣列計算后,輸出為新的電壓值V '0-V 'm,可以表示為向量V '。其中,V '=VGRs,向量Rs包括元素 rs0, rs1,…, rsm其中rsj表示第j列的接地電阻值。

實際應(yīng)用中,憶阻器器件的噪音會給基于憶阻器的神經(jīng)網(wǎng)絡(luò)的表達能力帶來負面影響,為了消除噪音對于實際神經(jīng)網(wǎng)絡(luò)性能的影響,可以在神經(jīng)網(wǎng)絡(luò)訓練時引入噪音,通過將底層器件噪音暴露給軟件訓練層面,來抵消一部分硬件層面的噪音所帶來的精度影響。

華為降低憶阻器對神經(jīng)網(wǎng)絡(luò)的影響專利

圖3 神經(jīng)網(wǎng)絡(luò)訓練方法示意圖

該專利中提出的可用于圖1、2的神經(jīng)網(wǎng)絡(luò)訓練方法示意圖如上所示,該訓練方法主要包括如下幾個步驟:

首先,將第一權(quán)重矩陣中絕對值小于或者等于預(yù)設(shè)門限的元素進行剪枝操作獲取第二權(quán)重矩陣。其中,第一權(quán)重矩陣為預(yù)設(shè)權(quán)重矩陣,可以將神經(jīng)網(wǎng)絡(luò)中需要進行訓練的權(quán)重矩陣設(shè)置為預(yù)設(shè)權(quán)重矩陣。然后為第二權(quán)重矩陣的每個元素附加一個噪音,該噪音用于模擬憶阻器器件噪音,以此獲得第三權(quán)重矩陣。接著,根據(jù)第三權(quán)重矩陣進行前向傳播,并將相應(yīng)的結(jié)果與目標值進行比較,獲得損失值。最后再將損失值和第一權(quán)重矩陣進行反向傳播以獲取目標權(quán)重矩陣。

華為申請的此項專利,能夠在保證神經(jīng)網(wǎng)絡(luò)精度的前提下,壓縮網(wǎng)絡(luò)模型,同時還能極大地減小了憶阻器器件噪音對神經(jīng)網(wǎng)絡(luò)準確性的影響。

雖然憶阻器前景較好,但國內(nèi)市場進行憶阻器芯片研發(fā)的企業(yè)較少,憶阻器的大部分技術(shù)仍停留在實驗室階段,而作為國內(nèi)科技“領(lǐng)頭羊”的華為公司也開始展開阻器的研究,可謂給其他企業(yè)吃了一顆“定心丸”,勢必會引起國內(nèi)憶阻器行業(yè)的研發(fā)浪潮。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 華為
    +關(guān)注

    關(guān)注

    216

    文章

    35024

    瀏覽量

    255045
  • 憶阻器
    +關(guān)注

    關(guān)注

    8

    文章

    75

    瀏覽量

    20296
收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    多層。 每一層都由若干個神經(jīng)元構(gòu)成,神經(jīng)元之間通過權(quán)重連接。信號在神經(jīng)網(wǎng)絡(luò)中是前向傳播的,而誤差是反向傳播的。 卷積神經(jīng)網(wǎng)絡(luò)(CNN) : CNN主要由卷積層、池化層和全連接層組成。
    的頭像 發(fā)表于 02-12 15:53 ?486次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機器學習的基礎(chǔ)知識和多種算法。在本文中,我們會介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?981次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    自旋:最像大腦的存儲

    ? 一種名為“自旋”的新型神經(jīng)形態(tài)元件模仿人類大腦的節(jié)能運作,將AI應(yīng)用程序的功耗降低到傳統(tǒng)設(shè)備的1/100。TDK與法國研究機構(gòu)CE
    的頭像 發(fā)表于 12-07 10:08 ?516次閱讀

    吉時利源表軟件在測試中的應(yīng)用

    在現(xiàn)代電子技術(shù)的發(fā)展中,作為一種新型的非線性元件,因其在存儲神經(jīng)網(wǎng)絡(luò)和模擬計算等領(lǐng)域的廣泛應(yīng)用而備受關(guān)注。為了有效地測試和評估
    的頭像 發(fā)表于 11-19 16:24 ?531次閱讀
    吉時利源表軟件在<b class='flag-5'>憶</b><b class='flag-5'>阻</b><b class='flag-5'>器</b>測試中的應(yīng)用

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    在深度學習領(lǐng)域,神經(jīng)網(wǎng)絡(luò)模型被廣泛應(yīng)用于各種任務(wù),如圖像識別、自然語言處理和游戲智能等。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNNs)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)是兩種常見的模型。 1. 結(jié)構(gòu)差異 1.1 傳統(tǒng)神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-15 14:53 ?1576次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種在人工智能和機器學習領(lǐng)域
    的頭像 發(fā)表于 07-10 15:24 ?2256次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及未來發(fā)展等多個方面,詳細闡述BP
    的頭像 發(fā)表于 07-10 15:20 ?2067次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?938次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)實際上是同一個概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?1399次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是深度學習領(lǐng)域中兩種非常重要的神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 14:24 ?1916次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指傳統(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時,我們需要從多個維度進行深入分析。這些維度包括
    的頭像 發(fā)表于 07-04 13:20 ?1647次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network,簡稱BP神經(jīng)網(wǎng)絡(luò))是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法來調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,以達到最小化誤差的
    的頭像 發(fā)表于 07-03 11:00 ?1146次閱讀

    bp神經(jīng)網(wǎng)絡(luò)是深度神經(jīng)網(wǎng)絡(luò)

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種常見的前饋神經(jīng)網(wǎng)絡(luò),它使用反向傳播算法來訓練網(wǎng)絡(luò)。雖然BP神經(jīng)網(wǎng)絡(luò)在某些方面與深度
    的頭像 發(fā)表于 07-03 10:14 ?1291次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò),它們在
    的頭像 發(fā)表于 07-03 10:12 ?2438次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)和BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Networks,簡稱BPNN)是兩種
    的頭像 發(fā)表于 07-02 14:24 ?5862次閱讀