女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

如何有效地對神經網絡參數進行初始化

DPVg_AI_era ? 來源:lq ? 2019-05-15 08:59 ? 次閱讀

神經網絡的初始化是訓練流程的重要基礎環節,會對模型的性能、收斂性、收斂速度等產生重要的影響。本文是deeplearning.ai的一篇技術博客,文章指出,對初始化值的大小選取不當, 可能造成梯度爆炸或梯度消失等問題,并提出了針對性的解決方法。

初始化會對深度神經網絡模型的訓練時間和收斂性產生重大影響。簡單的初始化方法可以加速訓練,但使用這些方法需要注意小心常見的陷阱。本文將解釋如何有效地對神經網絡參數進行初始化。

有效的初始化對構建模型至關重要

要構建機器學習算法,通常要定義一個體系結構(例如邏輯回歸,支持向量機,神經網絡)并對其進行訓練來學習參數。下面是訓練神經網絡的一些常見流程:

初始化參數

選擇優化算法

然后重復以下步驟:

1、向前傳播輸入

2、計算成本函數

3、使用反向傳播計算與參數相關的成本梯度

4、根據優化算法,利用梯度更新每個參數

然后,給定一個新的數據點,使用模型來預測其類型。

初始化值太大太小會導致梯度爆炸或梯度消失

初始化這一步對于模型的最終性能至關重要,需要采用正確的方法。比如對于下面的三層神經網絡。可以嘗試使用不同的方法初始化此網絡,并觀察對學習的影響。

在優化循環的每次迭代(前向,成本,后向,更新)中,我們觀察到當從輸出層向輸入層移動時,反向傳播的梯度要么被放大,要么被最小化。

假設所有激活函數都是線性的(恒等函數)。 則輸出激活為:

其中 L=10 ,且W[1]、W[2]…W[L-1]都是2*2矩陣,因為從第1層到L-1層都是2個神經元,接收2個輸入。為了方便分析,如果假設W[1]=W[2]=…=W[L-1]=W,那么輸出預測為

如果初始化值太大或太小會造成什么結果?

情況1:初始化值過大會導致梯度爆炸

如果每個權重的初始化值都比單位矩陣稍大,即:

可簡化表示為

且a[l]的值隨l值呈指數級增長。當這些激活用于向后傳播時,會導致梯度爆炸。也就是說,與參數相關的成本梯度太大。 這導致成本圍繞其最小值振蕩。

初始化值太大導致成本圍繞其最小值震蕩

情況2:初始化值過小會導致梯度消失

類似地,如果每個權重的初始化值都比單位矩陣稍小,即:

可簡化表示為

且a[l]的值隨l值減少呈指數級下降。當這些激活用于后向傳播時,可能會導致梯度消失。也就是說,與參數相關的成本梯度太小。這會導致成本在達到最小值之前收斂。

初始化值太小導致模型過早收斂

總而言之,使用大小不合適的值對權重進行將導致神經網絡的發散或訓練速度下降。 雖然我們用的是簡單的對稱權重矩陣來說明梯度爆炸/消失的問題,但這一現象可以推廣到任何不合適的初始化值。

如何確定合適的初始化值

為了防止以上問題的出現,我們可以堅持以下經驗原則:

1.激活的平均值應為零。

2.激活的方差應該在每一層保持不變。

在這兩個假設下,反向傳播的梯度信號不應該在任何層中乘以太小或太大的值。梯度應該可以移動到輸入層,而不會爆炸或消失。

更具體地說,對于層l,其前向傳播是:

我們想讓下式成立:

確保均值為零,并保持每層輸入方差值不變,可以保證信號不會爆炸或消失。該方法既適用于前向傳播(用于激活),也適用于向后傳播(用于關于激活的成本梯度)。這里建議使用Xavier初始化(或其派生初始化方法),對于每個層l,有:

層l中的所有權重均自正態分布中隨機挑選,其中均值μ=0,方差E= 1/( n[l?1]),其中n[l?1]是第l-1層網絡中的神經元數量。偏差已初始化為零。

下圖說明了Xavier初始化對五層全連接神經網絡的影響。數據集為MNIST中選取的10000個手寫數字,分類結果的紅色方框表示錯誤分類,藍色表示正確分類。

結果顯示,Xavier初始化的模型性能顯著高于uniform和標準正態分布(從上至下分別為uniform、標準正態分布、Xavier)。

結論

在實踐中,使用Xavier初始化的機器學習工程師會將權重初始化為N(0,1/( n[l?1]))或N(0,2/(n[l-1]+n[1])),其中后一個分布的方差是n[l-1]和n[1]的調和平均。

Xavier初始化可以與tanh激活一起使用。此外,還有大量其他初始化方法。 例如,如果你正在使用ReLU,則通常的初始化是He初始化,其初始化權重通過乘以Xavier初始化的方差2來初始化。 雖然這種初始化證明稍微復雜一些,但其思路與tanh是相同的。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4807

    瀏覽量

    102766
  • 函數
    +關注

    關注

    3

    文章

    4369

    瀏覽量

    64187
  • 機器學習
    +關注

    關注

    66

    文章

    8491

    瀏覽量

    134083

原文標題:一文看懂神經網絡初始化!吳恩達Deeplearning.ai最新干貨

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    MATLAB神經網絡工具箱函數

    遞歸網絡newelm 創建一Elman遞歸網絡2. 網絡應用函數sim 仿真一個神經網絡init 初始化一個
    發表于 09-22 16:10

    【案例分享】基于BP算法的前饋神經網絡

    }或o koko_{k})的誤差神經元偏倚的變化量:ΔΘ ΔΘ Delta Theta=學習步長η ηeta × ×imes 乘以神經元的誤差BP神經網絡算法過程網絡
    發表于 07-21 04:00

    改善深層神經網絡--超參數優化、batch正則和程序框架 學習總結

    《深度學習工程師-吳恩達》02改善深層神經網絡--超參數優化、batch正則和程序框架 學習總結
    發表于 06-16 14:52

    怎么解決人工神經網絡并行數據處理的問題

    本文提出了一個基于FPGA 的信息處理的實例:一個簡單的人工神經網絡應用Verilog 語言描述,該數據流采用模塊的程序設計,并考慮了模塊間數據傳輸信號同 步的問題,有效地解決了人工神經網絡
    發表于 05-06 07:22

    基于BP神經網絡的PID控制

    神經網絡可以建立參數Kp,Ki,Kd自整定的PID控制器。基于BP神經網絡的PID控制系統結構框圖如下圖所示:控制器由兩部分組成:經典增量式PID控制器;BP神經網絡...
    發表于 09-07 07:43

    卷積神經網絡模型發展及應用

    propagation algorithm,BP)[22]。BP 算法采用 Sigmoid 進行非線性映射,有效解決了 非線性分類和學習的問題,掀起了神經網絡第二次 研究高潮。BP 網絡
    發表于 08-02 10:39

    如何進行高效的時序圖神經網絡的訓練

    現有的圖數據規模極大,導致時序圖神經網絡的訓練需要格外長的時間,因此使用多GPU進行訓練變得成為尤為重要,如何有效地將多GPU用于時序圖神經網絡訓練成為一個非常重要的研究議題。本文提供
    發表于 09-28 10:37

    BP神經網絡的稅收預測

    針對傳統稅收預測模型精度較低的問題,提出一種將Adaboost算法和BP神經網絡相結合進行稅收預測的方法。該方法首先對歷年稅收數據進行預處理并初始化測試數據分布權值;然后
    發表于 02-27 16:51 ?0次下載
    BP<b class='flag-5'>神經網絡</b>的稅收預測

    神經網絡是在許多用例中提供了精確狀態的機器學習算法

    參數是必須初始化網絡的值,這些值是神經網絡在訓練時無法學習到的。例如:在卷積神經網絡中,一些超參數
    的頭像 發表于 06-11 11:47 ?3298次閱讀
    <b class='flag-5'>神經網絡</b>是在許多用例中提供了精確狀態的機器學習算法

    神經網絡如何正確初始化?

    初始化對訓練深度神經網絡的收斂性有重要影響。
    的頭像 發表于 05-17 16:32 ?8390次閱讀
    <b class='flag-5'>神經網絡</b>如何正確<b class='flag-5'>初始化</b>?

    教大家怎么選擇神經網絡的超參數

    minibatch 的大小, 輸出神經元的編碼方式, 代價函數的選擇, 權重初始化的方法, 神經元激活函數的種類, 參加訓練模型數據的規模 這些都是可以影響神經網絡學習速度和最后分類
    的頭像 發表于 06-19 14:49 ?3872次閱讀
    教大家怎么選擇<b class='flag-5'>神經網絡</b>的超<b class='flag-5'>參數</b>

    卷積神經網絡算法代碼matlab

    )、池層(Pooling Layer)和全連接層(Fully Connected Layer)。卷積神經網絡源自對腦神經細胞的研究,能夠有效地處理大規模的視覺和語音數據。本文將詳細介
    的頭像 發表于 08-21 16:50 ?1454次閱讀

    卷積神經網絡的優點

    傳統的神經網絡模型,卷積神經網絡具有以下優點。 1. 局部連接和權值共享:卷積神經網絡通過設置局部連接和權值共享的結構,有效地減少了神經網絡
    的頭像 發表于 12-07 15:37 ?5027次閱讀

    bp神經網絡算法的基本流程包括哪些

    初始化網絡參數 在BP神經網絡算法中,首先需要初始化網絡
    的頭像 發表于 07-04 09:47 ?1144次閱讀

    BP神經網絡的實現步驟詳解

    BP神經網絡的實現步驟主要包括以下幾個階段:網絡初始化、前向傳播、誤差計算、反向傳播和權重更新。以下是對這些步驟的詳細解釋: 一、網絡初始化
    的頭像 發表于 02-12 15:50 ?499次閱讀