女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

加法網(wǎng)絡(luò)再突破—NeurIPS 2020 Spotlight

電子設(shè)計(jì) ? 來源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-12-08 22:11 ? 次閱讀
華為諾亞方舟實(shí)驗(yàn)室聯(lián)合悉尼大學(xué)發(fā)布論文《Kernel Based Progressive Distillation for Adder Neural Networks》,提出了針對(duì)加法神經(jīng)網(wǎng)絡(luò)的蒸餾技術(shù),ResNet-34和ResNet-50網(wǎng)絡(luò)在ImageNet上分別達(dá)到了68.8%和76.8%的準(zhǔn)確率,效果與相同結(jié)構(gòu)的CNN相比持平或超越,該論文已被NeurIPS2020接收。

開源鏈接:
huawei-noah/AdderNet?github.com
論文鏈接:
https://arxiv.org/pdf/2009.13044.pdf?arxiv.org

研究背景

深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)被廣泛應(yīng)用于諸多計(jì)算機(jī)視覺領(lǐng)域的實(shí)際任務(wù)中(例如,圖片分類、物體檢測(cè)、語義分割等)。然而,為了保證性能,神經(jīng)網(wǎng)絡(luò)通常是過參數(shù)化的,因此會(huì)存在大量的冗余參數(shù)。近期提出的加法神經(jīng)網(wǎng)絡(luò)(ANN),通過將卷積操作中的距離度量函數(shù)替換為L1距離,極大減少了神經(jīng)網(wǎng)絡(luò)中的乘法操作,從而減少了網(wǎng)絡(luò)運(yùn)行所需的功耗和芯片面積。
然而,ANN在準(zhǔn)確率方面和同結(jié)構(gòu)的CNN相比仍然有一定差距,在某種程度上限制了ANN在實(shí)際應(yīng)用中對(duì)CNN的替換。為了提高ANN的性能,我們提出了一種基于核的漸進(jìn)蒸餾方法。具體的,我們發(fā)現(xiàn)一個(gè)訓(xùn)練好的ANN網(wǎng)絡(luò)其參數(shù)通常服從拉普拉斯分布,而一個(gè)訓(xùn)練好的CNN網(wǎng)絡(luò)其參數(shù)通常服從高斯分布。因此,我們對(duì)網(wǎng)絡(luò)中間層的特征圖輸出進(jìn)行核變換后,使用距離度量函數(shù)估計(jì)教師網(wǎng)絡(luò)(CNN)和學(xué)生網(wǎng)絡(luò)(ANN)之間的損失。對(duì)于最后一層,我們使用傳統(tǒng)的KL散度估計(jì)兩個(gè)網(wǎng)絡(luò)之間的損失。同時(shí),在訓(xùn)練中我們使用隨機(jī)初始化的教師網(wǎng)絡(luò),與學(xué)生網(wǎng)絡(luò)同時(shí)訓(xùn)練,以減少兩個(gè)網(wǎng)絡(luò)之間參數(shù)分布的差異性。
實(shí)驗(yàn)表明,我們的算法得到的ANN能夠在CIFAR-10,CIFAR-100,ImageNet等標(biāo)準(zhǔn)圖片分類數(shù)據(jù)集上達(dá)到或超越同結(jié)構(gòu)CNN的準(zhǔn)確率。
對(duì)網(wǎng)絡(luò)中間層特征圖輸出進(jìn)行核變換
ANN本身精度不好的原因是原始ANN在反向傳播時(shí),使用的是近似的梯度,導(dǎo)致目標(biāo)函數(shù)無法向著最小的方向移動(dòng)。傳統(tǒng)KD方法應(yīng)用到ANN上效果不佳的原因,在于ANN的權(quán)重分布是拉普拉斯分布,而CNN的權(quán)重分布為高斯分布,因此分布不同導(dǎo)致無法直接對(duì)中間層的feature map使用KD方法。本方法首先將核變換作用于教師網(wǎng)絡(luò)和學(xué)生網(wǎng)絡(luò)的中間層輸出,并使用1x1卷積對(duì)新的輸出進(jìn)行配準(zhǔn)。之后,結(jié)合最后一層的蒸餾損失與分類損失,得到整體的損失函數(shù)。

漸進(jìn)式蒸餾算法
傳統(tǒng)的蒸餾方法使用固定的,訓(xùn)練好的教師網(wǎng)絡(luò)來教學(xué)生網(wǎng)絡(luò)。這樣做會(huì)帶來問題。由于教師網(wǎng)絡(luò)和學(xué)生網(wǎng)絡(luò)處于不同的訓(xùn)練階段,因此他們的分布會(huì)因?yàn)橛?xùn)練階段的不同而不同,所以會(huì)導(dǎo)致KD方法效果不好。因此我們采用漸進(jìn)式蒸餾方法,讓教師網(wǎng)絡(luò)和學(xué)生網(wǎng)絡(luò)共同學(xué)習(xí),有助于KD方法得到好的結(jié)果。即目標(biāo)函數(shù)變?yōu)椋?br />
其中b為當(dāng)前的step。
實(shí)驗(yàn)結(jié)果
我們?cè)贑IFAR-10、CIFAR-100、ImageNet三個(gè)數(shù)據(jù)集上分別進(jìn)行了實(shí)驗(yàn)。
下表是在CIFAR-10和CIFAR-100數(shù)據(jù)集上的結(jié)果,我們使用了VGG-small、ResNet-20與ResNet-32作為教師網(wǎng)絡(luò),同結(jié)構(gòu)的ANN作為學(xué)生網(wǎng)絡(luò)。可以看到,使用了本方法得到的ANN在分類準(zhǔn)確率上相比原始的ANN有大幅度的提升,并且能夠超過同結(jié)構(gòu)的CNN模型。表格中#Mul表示網(wǎng)絡(luò)中乘法操作的次數(shù)。#Add表示加法操作次數(shù),#XNOR表示同或操作的次數(shù)。

下表展示了在ImageNet數(shù)據(jù)集上的結(jié)果,我們使用ResNet-18與ResNet-50網(wǎng)絡(luò)作為教師網(wǎng)絡(luò),同結(jié)構(gòu)的ANN作為學(xué)生網(wǎng)絡(luò)。結(jié)果顯示我們的方法得到的ANN在分類準(zhǔn)確率上相比同結(jié)構(gòu)CNN基本相同或能夠超越。

最后,我們展示了ResNet-20,ANN-20與通過本方法得到的PKKD ANN-20模型在CIFAR-10與CIFAR-100數(shù)據(jù)集上的訓(xùn)練精度曲線與測(cè)試精度曲線。

圖中的實(shí)線表示訓(xùn)練精度,虛線表示測(cè)試精度。在兩個(gè)數(shù)據(jù)集中,CNN的訓(xùn)練和測(cè)試準(zhǔn)確率都超過了原始的ANN模型。這是因?yàn)樵谟?xùn)練原始ANN時(shí),反向傳播的梯度使用的是L2 norm來近似,因此梯度方向是不準(zhǔn)確的。當(dāng)使用本方法后,CNN的訓(xùn)練過程可以指導(dǎo)ANN的訓(xùn)練,因此可以得到更好的結(jié)果。同時(shí),知識(shí)蒸餾方法能夠幫助學(xué)生網(wǎng)絡(luò)防止過擬合,這也是我們的方法有最低的訓(xùn)練精度和最高的測(cè)試精度的原因。



推薦閱讀



文章首發(fā)知乎,更多深度模型壓縮相關(guān)的文章請(qǐng)關(guān)注深度學(xué)習(xí)壓縮模型論文專欄

審核編輯:符乾江

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    openKylin社區(qū)會(huì)員突破1000家

    在開源技術(shù)驅(qū)動(dòng)全球創(chuàng)新的時(shí)代浪潮中,OpenAtom openKylin(簡稱“openKylin”)開源操作系統(tǒng)社區(qū)迎重大里程碑——企業(yè)會(huì)員突破1000家。此次會(huì)員突破1000家,是社區(qū)發(fā)展
    的頭像 發(fā)表于 04-25 13:05 ?366次閱讀

    人造太陽升級(jí)!中國核聚變實(shí)現(xiàn)「雙億度」突破

    近日,我國核聚變領(lǐng)域再獲重大突破。中核集團(tuán)核工業(yè)西南物理研究院宣布,新一代“人造太陽”裝置——中國環(huán)流三號(hào)首次實(shí)現(xiàn)了原子核溫度1.17億度、電子溫度1.6億度的“雙億度”突破,并大幅提升了綜合參數(shù)
    的頭像 發(fā)表于 04-18 11:29 ?427次閱讀
    人造太陽<b class='flag-5'>再</b>升級(jí)!中國核聚變實(shí)現(xiàn)「雙億度」<b class='flag-5'>突破</b>

    電機(jī)高效制造在企業(yè)生產(chǎn)中的應(yīng)用

    高效制造在企業(yè)生產(chǎn)中的應(yīng)用.pdf (免責(zé)聲明:本文系網(wǎng)絡(luò)轉(zhuǎn)載,版權(quán)歸原作者所有。本文所用視頻、圖片、文字如涉及作品版權(quán)問題,請(qǐng)第一時(shí)間告知,刪除內(nèi)容!)
    發(fā)表于 04-07 17:31

    NVIDIA實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能

    近日,NVIDIA 宣布了 NVIDIA RTX 神經(jīng)網(wǎng)絡(luò)渲染技術(shù)的突破性增強(qiáng)功能。NVIDIA 與微軟合作,將在 4 月的 Microsoft DirectX 預(yù)覽版中增加神經(jīng)網(wǎng)絡(luò)著色技術(shù),讓開
    的頭像 發(fā)表于 04-07 11:33 ?353次閱讀

    LMK1C1104DQF低加法、相位噪聲LVCMOS時(shí)鐘緩沖器評(píng)估板

    電子發(fā)燒友網(wǎng)站提供《LMK1C1104DQF低加法、相位噪聲LVCMOS時(shí)鐘緩沖器評(píng)估板.pdf》資料免費(fèi)下載
    發(fā)表于 11-26 15:19 ?0次下載
    LMK1C1104DQF低<b class='flag-5'>加法</b>、相位噪聲LVCMOS時(shí)鐘緩沖器評(píng)估板

    螞蟻數(shù)科與浙大團(tuán)隊(duì)榮獲NeurIPS競賽冠軍

    近日,在機(jī)器學(xué)習(xí)領(lǐng)域的頂級(jí)國際會(huì)議NeurIPS的特設(shè)競賽中,螞蟻數(shù)科旗下的摩斯聯(lián)合浙江大學(xué)計(jì)算機(jī)體系結(jié)構(gòu)實(shí)驗(yàn)室陳文智、魏成坤團(tuán)隊(duì)組成的“Morse ARCLab”參賽隊(duì)伍憑借出色的表現(xiàn),成功在激烈的競爭中脫穎而出,為中國AI技術(shù)的發(fā)展貢獻(xiàn)了重要力量。
    的頭像 發(fā)表于 11-26 10:27 ?772次閱讀

    TL494根據(jù)輸入電壓的大小,調(diào)節(jié)輸出PWM的占空比,通過后級(jí)的RC網(wǎng)絡(luò)還原信號(hào),可行嗎?

    我目前在用紅外做無線通信,用MIC做音頻信號(hào)采集放大后,送給TL494。 TL494根據(jù)輸入電壓的大小,調(diào)節(jié)輸出PWM的占空比,通過后級(jí)的RC網(wǎng)絡(luò)還原信號(hào)。 請(qǐng)問有沒有什么參考電路什么的?或者說TL494能不能做這個(gè)應(yīng)用
    發(fā)表于 11-01 08:17

    海外動(dòng)態(tài)IP:突破地域限制,賦能數(shù)字時(shí)代

    海外動(dòng)態(tài)IP作為一種強(qiáng)大的網(wǎng)絡(luò)工具,正在突破地域限制,賦能數(shù)字時(shí)代,為企業(yè)和個(gè)人提供網(wǎng)絡(luò)自由與便利。
    的頭像 發(fā)表于 11-01 05:55 ?485次閱讀

    LM258反向加法器輸出信號(hào)出現(xiàn)斷點(diǎn)怎么解決?

    LM258反向加法器輸出信號(hào)出現(xiàn)斷點(diǎn)的問題,求各位老師解答 電路圖如下: 采用正負(fù)5V供電 輸入輸出如下: 上面是輸出,下面是輸入。輸入兩個(gè)一樣的正弦信號(hào),輸出信號(hào)出現(xiàn)斷點(diǎn)是怎么回事呢? 發(fā)現(xiàn)輸入大信號(hào)出現(xiàn)上述現(xiàn)象,小信號(hào)就沒有了
    發(fā)表于 09-20 06:49

    加法運(yùn)放電路實(shí)驗(yàn)報(bào)告數(shù)據(jù)分析

    加法運(yùn)放電路實(shí)驗(yàn)報(bào)告的數(shù)據(jù)分析主要包括對(duì)實(shí)驗(yàn)結(jié)果的觀察、與理論值的對(duì)比以及誤差原因的分析。以下是一個(gè)基于常見加法運(yùn)放電路實(shí)驗(yàn)的數(shù)據(jù)分析示例: 一、實(shí)驗(yàn)?zāi)康呐c原理 實(shí)驗(yàn)?zāi)康?:了解加法器的模擬實(shí)現(xiàn)方法
    的頭像 發(fā)表于 09-03 10:03 ?1675次閱讀

    加法運(yùn)放電路輸出電壓是多少

    負(fù)反饋配置下能夠非常精確地控制其輸出電壓。 加法運(yùn)放電路的基本形式是將多個(gè)輸入信號(hào)通過電阻網(wǎng)絡(luò)連接到運(yùn)算放大器的反相輸入端(通常也會(huì)有一個(gè)反饋電阻從輸出連接到反相輸入端以形成負(fù)反饋),而運(yùn)算放大器的非反相輸入端則接地
    的頭像 發(fā)表于 09-03 09:50 ?1007次閱讀
    <b class='flag-5'>加法</b>運(yùn)放電路輸出電壓是多少

    加法器是時(shí)序邏輯電路嗎

    加法器不是時(shí)序邏輯電路 ,而是組合邏輯電路的一種。時(shí)序邏輯電路和組合邏輯電路的主要區(qū)別在于它們?nèi)绾翁幚磔敵鲂盘?hào)。 組合邏輯電路的輸出僅依賴于當(dāng)前的輸入信號(hào),而不依賴于電路之前的狀態(tài)或輸入歷史。這
    的頭像 發(fā)表于 08-28 11:05 ?1284次閱讀

    請(qǐng)問全差分運(yùn)算放大器能像一般運(yùn)算放大器一樣設(shè)計(jì)加法器嗎?

    全差分運(yùn)算放大器能像一般運(yùn)算放大器一樣設(shè)計(jì)加法器嗎?
    發(fā)表于 08-09 06:26

    殘差網(wǎng)絡(luò)是深度神經(jīng)網(wǎng)絡(luò)

    殘差網(wǎng)絡(luò)(Residual Network,通常簡稱為ResNet) 是深度神經(jīng)網(wǎng)絡(luò)的一種 ,其獨(dú)特的結(jié)構(gòu)設(shè)計(jì)在解決深層網(wǎng)絡(luò)訓(xùn)練中的梯度消失和梯度爆炸問題上取得了顯著的突破,并因此成為
    的頭像 發(fā)表于 07-11 18:13 ?1513次閱讀

    GS8522加法器電路迷之短路

    嘗試只焊第一級(jí)的運(yùn)放和周圍電阻,現(xiàn)象相同。電路仿真使用OPA2140代替GS8522時(shí)仿真測(cè)試結(jié)果正常。 對(duì)此我不明白的是,此電路的功能為加法器,第一級(jí)由兩個(gè)電壓跟隨器組成(使用芯片GS8522
    發(fā)表于 07-05 16:39