女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)中的dropout是什么?怎么使用

汽車玩家 ? 來源:CSDN ? 作者:_VioletHan_ ? 2020-01-28 17:44 ? 次閱讀

一、dropout目的

Dropout是在《ImageNet Classification with Deep Convolutional》這篇論文里提出來為了防止神經(jīng)網(wǎng)絡(luò)的過擬合。它的主要思想是讓隱藏層的節(jié)點在每次迭代時(包括正向和反向傳播)有一定幾率(keep-prob)失效。這樣來預(yù)防過擬合。它主要避免對某個節(jié)點的強依賴,讓反向傳播的修正值可以更加平衡的分布到各個參數(shù)上。還有如果一些節(jié)點失效,實際上也和我們減少網(wǎng)絡(luò)復(fù)雜度是一樣的道理。所以可以防止過擬合。

二、dropout方法

(1)訓(xùn)練階段

Dropout是在標(biāo)準(zhǔn)的bp網(wǎng)絡(luò)的的結(jié)構(gòu)上,使bp網(wǎng)的隱層激活值,以一定的比例v變?yōu)?,即按照一定比例v,隨機地讓一部分隱層節(jié)點失效;在后面benchmark實驗測試時,部分實驗讓隱層節(jié)點失效的基礎(chǔ)上,使輸入數(shù)據(jù)也以一定比例(試驗用20%)是部分輸入數(shù)據(jù)失效(這個有點像denoising autoencoder),這樣得到了更好的結(jié)果。

去掉權(quán)值懲罰項,取而代之的是,限制權(quán)值的范圍,給每個權(quán)值設(shè)置一個上限范圍;如果在訓(xùn)練跟新的過程中,權(quán)值超過了這個上限,則把權(quán)值設(shè)置為這個上限的值(這個上限值得設(shè)定作者并沒有說設(shè)置多少最好,后面的試驗中作者說這個上限設(shè)置為15時,最好;為啥?估計是交叉驗證得出的實驗結(jié)論)。

此外,還可以使算法使用一個比較大的學(xué)習(xí)率,來加快學(xué)習(xí)速度,從而使算法在一個更廣闊的權(quán)值空間中搜索更好的權(quán)值,而不用擔(dān)心權(quán)值過大。

(2)測試階段

Dropout只發(fā)生在模型的訓(xùn)練階段,預(yù)測、測試階段則不用Dropout

三、關(guān)于dropout需要知道的

直觀認(rèn)識:Dropout隨機刪除神經(jīng)元后,網(wǎng)絡(luò)變得更小,訓(xùn)練階段也會提速

事實證明,dropout已經(jīng)被正式地作為一種正則化的替代形式

有了dropout,網(wǎng)絡(luò)不會為任何一個特征加上很高的權(quán)重(因為那個特征的輸入神經(jīng)元有可能被隨機刪除),最終dropout產(chǎn)生了收縮權(quán)重平方范數(shù)的效果

Dropout的功能類似于L2正則化,但Dropout更適用于不同的輸入范圍

如果你擔(dān)心某些層比其它層更容易過擬合,可以把這些層的keep-prob值設(shè)置的比其它層更低

Dropout主要用在計算機視覺領(lǐng)域,因為這個領(lǐng)域我們通常沒有足夠的數(shù)據(jù),容易過擬合。但在其它領(lǐng)域用的比較少

Dropout的一大缺點就是代價函數(shù)不再被明確定義,所以在訓(xùn)練過程中,代價函數(shù)的值并不是單調(diào)遞減的

使用時,先關(guān)閉Dropout,設(shè)置keep-prob為1,使代價函數(shù)的值單調(diào)遞減,然后再打開Dropout

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    神經(jīng)網(wǎng)絡(luò)教程(李亞非)

      第1章 概述  1.1 人工神經(jīng)網(wǎng)絡(luò)研究與發(fā)展  1.2 生物神經(jīng)元  1.3 人工神經(jīng)網(wǎng)絡(luò)的構(gòu)成  第2章人工神經(jīng)網(wǎng)絡(luò)基本模型  2.1 MP模型  2.2 感知器模型  2.3
    發(fā)表于 03-20 11:32

    神經(jīng)網(wǎng)絡(luò)簡介

    神經(jīng)網(wǎng)絡(luò)簡介
    發(fā)表于 08-05 21:01

    求助基于labview的神經(jīng)網(wǎng)絡(luò)pid控制

    小女子做基于labview的蒸發(fā)過程液位的控制,想使用神經(jīng)網(wǎng)絡(luò)pid控制,請問這個控制方法可以嗎?有誰會神經(jīng)網(wǎng)絡(luò)pid控制么。。。叩謝
    發(fā)表于 09-23 13:43

    神經(jīng)網(wǎng)絡(luò)基本介紹

    神經(jīng)網(wǎng)絡(luò)基本介紹
    發(fā)表于 01-04 13:41

    【PYNQ-Z2試用體驗】神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識

    神經(jīng)網(wǎng)絡(luò)的計算。對于多層多節(jié)點的神經(jīng)網(wǎng)絡(luò),我們可以使用矩陣乘法來表示。在上面的神經(jīng)網(wǎng)絡(luò),我們將權(quán)重作為一個矩陣,將第一層的輸入作為另一個矩陣,兩個矩陣相乘,得到的矩陣恰好為第二層的輸
    發(fā)表于 03-03 22:10

    全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)有什么區(qū)別

    全連接神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的區(qū)別
    發(fā)表于 06-06 14:21

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會在意它呢? 對于這些非常中肯的問題,我們似乎可以給出相對簡明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】基于BP算法的前饋神經(jīng)網(wǎng)絡(luò)

    傳播的,不會回流),區(qū)別于循環(huán)神經(jīng)網(wǎng)絡(luò)RNN。BP算法(Back Propagation):誤差反向傳播算法,用于更新網(wǎng)絡(luò)的權(quán)重。BP神經(jīng)網(wǎng)絡(luò)思想:表面上:1. 數(shù)據(jù)信息的前向傳播,
    發(fā)表于 07-21 04:00

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    ,同理,閾值越大,則容納的模式類也就越多----------以上純屬個人理解,如果有錯誤歡迎指正。ART比較好地緩解了競爭型學(xué)習(xí)的“可塑性-穩(wěn)定性窘境”,其中可塑性指神經(jīng)網(wǎng)絡(luò)要能夠?qū)W習(xí)新知識,穩(wěn)定性
    發(fā)表于 07-21 04:30

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測的計算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡(luò)的PID控制

    最近在學(xué)習(xí)電機的智能控制,上周學(xué)習(xí)了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡(luò)的PID控制。神經(jīng)網(wǎng)絡(luò)具有任意非線性表達(dá)能力,可以通過對系統(tǒng)性能的學(xué)習(xí)來實現(xiàn)具有最佳組合的PID控制。利用BP
    發(fā)表于 09-07 07:43

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    神經(jīng)網(wǎng)絡(luò)研究的第一次浪潮。1969 年美國數(shù)學(xué)家及人工智能先驅(qū) Minsky在其著作證 明感知器本質(zhì)上是一種線性模型[21],只能處理線性分 類問題,最簡單的異或問題都無法正確分類,因此神 經(jīng)網(wǎng)絡(luò)的研究也
    發(fā)表于 08-02 10:39

    理解神經(jīng)網(wǎng)絡(luò)Dropout

    dropout是指在深度學(xué)習(xí)網(wǎng)絡(luò)的訓(xùn)練過程,對于神經(jīng)網(wǎng)絡(luò)單元,按照一定的概率將其暫時從網(wǎng)絡(luò)
    發(fā)表于 11-16 01:11 ?3942次閱讀
    理解<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>中</b>的<b class='flag-5'>Dropout</b>

    基于Numpy實現(xiàn)神經(jīng)網(wǎng)絡(luò):如何加入和調(diào)整dropout

    幾乎所有目前最先進的神經(jīng)網(wǎng)絡(luò)都用到了dropout. 這篇教程介紹如何通過幾行Python代碼在神經(jīng)網(wǎng)絡(luò)中加入Dropout. 讀完這篇教程之后,你將得到一個可以工作的
    的頭像 發(fā)表于 04-15 09:59 ?7852次閱讀
    基于Numpy實現(xiàn)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>:如何加入和調(diào)整<b class='flag-5'>dropout</b>?

    神經(jīng)網(wǎng)絡(luò)在數(shù)學(xué)建模的應(yīng)用

    數(shù)學(xué)建模是一種利用數(shù)學(xué)方法和工具來描述和分析現(xiàn)實世界問題的過程。神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)和功能的計算模型,可以用于解決各種復(fù)雜問題。在數(shù)學(xué)建模神經(jīng)網(wǎng)絡(luò)可以作為一種有效的工具
    的頭像 發(fā)表于 07-02 11:29 ?1514次閱讀