r”的一個映射,第二個數(shù)據(jù) “向/p”,神經(jīng)網(wǎng)絡(luò)學習一個 “向->p”的映射,這樣一直將訓練數(shù)據(jù)學習完,更新到最后的參數(shù),從而學習到model。" />

女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

普通神經(jīng)網(wǎng)絡(luò)MLP與RNN不得不說的秘密

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 2017-12-11 09:20 ? 次閱讀

記錄一下RNN為什么可以記錄以前歷史信息,如何從公式中體現(xiàn)出?

那么首先介紹一下為什么普通的神經(jīng)網(wǎng)絡(luò)不能記憶以前的歷史信息,然后引出RNN的相應(yīng)能力,因為如果普通的神經(jīng)網(wǎng)絡(luò)能夠記錄以前的歷史信息的話,那么也就不會有RNN思想的誕生了。

1普通神經(jīng)網(wǎng)絡(luò)(MLP)

首先我們有一個任務(wù),就是進行詞性標注,下面有兩個訓練數(shù)據(jù)。

他向我表白我覺得他的表白不夠真誠

正確的詞性是:

那么將這些訓練數(shù)據(jù)送給神經(jīng)網(wǎng)絡(luò)進行訓練,比如第一個數(shù)據(jù) “他/r”,神經(jīng)網(wǎng)絡(luò)學習 “他->r”的一個映射,第二個數(shù)據(jù) “向/p”,神經(jīng)網(wǎng)絡(luò)學習一個 “向->p”的映射,這樣一直將訓練數(shù)據(jù)學習完,更新到最后的參數(shù),從而學習到model,但是問題來了。

學習示例圖如下:

在上面的訓練數(shù)據(jù)中,有些詞語的詞性并不是唯一的,比如“表白”一詞,在“他向我表白”這句話中作為動詞v,在“我覺得他的表白不夠真誠”這句話中作為名詞n,所以對于神經(jīng)網(wǎng)絡(luò)來說,它是會學亂的。

一下子神經(jīng)網(wǎng)絡(luò)要學習“表白”是動詞,一下子又要學習“表白”是名詞,神經(jīng)網(wǎng)絡(luò)也很無辜呀,它沒有能力來處理什么情況下應(yīng)該將“表白”判別為名詞,什么情況下降“表白”判斷為動詞,因為神經(jīng)網(wǎng)絡(luò)學習不到周圍的語境。喂給神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)和之前的數(shù)據(jù)并沒有聯(lián)系。

所以我們這個時候就需要一個能夠記憶以前歷史信息的網(wǎng)絡(luò)出現(xiàn),比如在第一句話中,碰到表達一詞的時候,我知道他前面的詞是“我”/代詞,那么代詞后面的表白作為動詞的概率就遠大于名詞的表白,當然RNN還能夠看到他前面好幾個詞語,理論上rnn可以記憶當前詞語前面的任何詞。

同理在第二句話的時候,碰到“表白”一詞的時候,我們的網(wǎng)絡(luò)能夠知道他前面的詞是“的”/助詞,那么助詞后面的“表白”作為名詞的概率就遠大于動詞的”表白“。

所以我們希望能夠有一個網(wǎng)絡(luò)在預(yù)測當前任務(wù)的時候,能夠記憶以前的知識幫助當前的任務(wù)完成,這樣RNN就閃亮登場了,可能有些小伙伴會說,它存在很多問題,比如不能長期記憶,但是這篇文章不介紹,但是無論如何,RNN提供了這種問題解決的可能。

2循環(huán)神經(jīng)網(wǎng)絡(luò)記錄歷史信息RNN

首先來介紹一下RNN

首先看一個簡單的循環(huán)神經(jīng)網(wǎng)絡(luò)如,它由輸入層、一個隱藏層和一個輸出層組成:

不知道初學的同學能夠理解這個圖嗎,反正我剛開始學習的時候是懵逼的,每個結(jié)點到底代表的是一個值的輸入,還是說一層的向量結(jié)點集合,如何隱藏層又可以連接到自己,等等這些疑惑~這個圖是一個比較抽象的圖。

我們現(xiàn)在這樣來理解,如果把上面有W的那個帶箭頭的圈去掉,它就變成了最普通的全連接神經(jīng)網(wǎng)絡(luò)。x是一個向量,它表示輸入層的值(這里面沒有畫出來表示神經(jīng)元節(jié)點的圓圈);s是一個向量,它表示隱藏層的值(這里隱藏層面畫了一個節(jié)點,你也可以想象這一層其實是多個節(jié)點,節(jié)點數(shù)與向量s的維度相同);

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • rnn
    rnn
    +關(guān)注

    關(guān)注

    0

    文章

    89

    瀏覽量

    7063

原文標題:【干貨】循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)為什么能夠記憶歷史信息

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    有關(guān)充電電池不得不說的幾個問題

    有關(guān)充電電池不得不說的幾個問題 1,認識記憶效應(yīng)電池記憶效應(yīng)是指電池的可逆失效,即電池失效后可重新回復的性能。記憶效應(yīng)是指電池長時間經(jīng)
    發(fā)表于 11-05 16:24 ?1208次閱讀

    什么是RNN (循環(huán)神經(jīng)網(wǎng)絡(luò))?

    循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN) 是一種深度學習結(jié)構(gòu),它使用過去的信息來提高網(wǎng)絡(luò)處理當前和將來輸入的性能。RNN 的獨特之處在于該網(wǎng)絡(luò)包含隱藏狀態(tài)和
    發(fā)表于 02-29 14:56 ?4840次閱讀
    什么是<b class='flag-5'>RNN</b> (循環(huán)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>)?

    遞歸神經(jīng)網(wǎng)絡(luò)RNN

    遞歸神經(jīng)網(wǎng)絡(luò)RNNRNN是最強大的模型之一,它使我們能夠開發(fā)如分類、序列數(shù)據(jù)標注、生成文本序列(例如預(yù)測下一輸入詞的SwiftKey keyboard應(yīng)用程序),以及將一個序列轉(zhuǎn)換為另一個序列
    發(fā)表于 07-20 09:27

    筆記本電池不得不說秘密

    筆記本電池不得不說秘密 前段時間APPLE、DELL、SONY、HP等國際知名PC巨頭的筆記本電池紛紛出現(xiàn)了種種問題而召回原廠?今天筆者想在這里延伸
    發(fā)表于 10-28 09:18 ?569次閱讀

    筆記本電池不得不說秘密

    筆記本電池不得不說秘密      前段時間APPLE、DELL、SONY、HP等國際知名PC巨頭的筆記本電池紛紛出現(xiàn)了種種問題而召回原廠?今天筆者想在這里延
    發(fā)表于 11-10 15:02 ?508次閱讀

    循環(huán)神經(jīng)網(wǎng)絡(luò)RNN)的詳細介紹

    在循環(huán)神經(jīng)網(wǎng)絡(luò)可以用于文本生成、機器翻譯還有看圖描述等,在這些場景中很多都出現(xiàn)了RNN的身影。
    的頭像 發(fā)表于 05-11 14:58 ?1.4w次閱讀
    循環(huán)<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>(<b class='flag-5'>RNN</b>)的詳細介紹

    三個最流行神經(jīng)網(wǎng)絡(luò)

    在本文中,我們將了解深度神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)知識和三個最流行神經(jīng)網(wǎng)絡(luò):多層神經(jīng)網(wǎng)絡(luò)(MLP),卷積神經(jīng)網(wǎng)絡(luò)(CNN)和遞歸
    發(fā)表于 05-15 14:19 ?1716次閱讀
    三個最流行<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>

    rnn神經(jīng)網(wǎng)絡(luò)基本原理

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),并且能夠捕捉時間序列數(shù)據(jù)中的動態(tài)特征。RNN在自然語言處理、語
    的頭像 發(fā)表于 07-04 15:02 ?1166次閱讀

    RNN神經(jīng)網(wǎng)絡(luò)適用于什么

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它可以處理序列數(shù)據(jù),具有記憶功能。RNN在許多領(lǐng)域都有廣泛的應(yīng)用,以下是一些
    的頭像 發(fā)表于 07-04 15:04 ?1424次閱讀

    rnn神經(jīng)網(wǎng)絡(luò)模型原理

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),具有記憶功能。RNN在自然語言處理、語音識別、時間序列預(yù)測等領(lǐng)
    的頭像 發(fā)表于 07-04 15:40 ?1037次閱讀

    rnn是什么神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)連接的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),并且具有記憶能力。與傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward
    的頭像 發(fā)表于 07-05 09:49 ?1250次閱讀

    rnn是什么神經(jīng)網(wǎng)絡(luò)模型

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是一種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)模型,它能夠處理序列數(shù)據(jù),并對序列中的元素進行建模。RNN在自然語言處理、語音識別、
    的頭像 發(fā)表于 07-05 09:50 ?1090次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時間序列特性的神經(jīng)網(wǎng)絡(luò),能
    的頭像 發(fā)表于 07-05 09:52 ?954次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學習領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長序列時存在梯度消失或梯度爆炸的問題。為了解決這一問題,LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)應(yīng)
    的頭像 發(fā)表于 11-13 09:58 ?1078次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機器學習領(lǐng)域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)RNN)和傳統(tǒng)
    的頭像 發(fā)表于 11-15 09:42 ?1008次閱讀