女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文帶你了解RNN、LTSM、Seq2Seq、Attention機(jī)制

智能生物識(shí)別說 ? 來源:快商通AI ? 作者:快商通AI ? 2021-09-27 18:03 ? 次閱讀

上一章我們?cè)敿?xì)介紹了小樣本做文本分類中的膠囊網(wǎng)絡(luò),那么這一章我們就來看看RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))。大神們準(zhǔn)備好了嗎,我們要發(fā)車了~

首先就是我們?yōu)槭裁葱枰猂NN?

舉個(gè)簡單的例子,最近娛樂圈頂流明星吳亦凡又出新瓜,大家都吃了咩?(反正小編吃的很飽哈)那么就以我 吃 瓜為例,三個(gè)單詞標(biāo)注詞性為 我/nn 吃/v 瓜/nn。

那么這個(gè)任務(wù)的輸入就是:

我 吃 瓜 (已經(jīng)分詞好的句子)

這個(gè)任務(wù)的輸出是:

我/nn 吃/v 瓜/nn(詞性標(biāo)注好的句子)

很明顯,一個(gè)句子中,前一個(gè)單詞其實(shí)對(duì)于當(dāng)前單詞的詞性預(yù)測(cè)是有很大影響的,比如預(yù)測(cè)“瓜”的時(shí)候,由于前面的吃是一個(gè)動(dòng)詞,那么很顯然“瓜”作為名詞的概率就會(huì)遠(yuǎn)大于動(dòng)詞的概率,因?yàn)閯?dòng)詞后面接名詞很常見,而動(dòng)詞后面接動(dòng)詞很少見。

所以為了更好的處理序列的信息,解決一些這樣類似的問題,我們的RNN就誕生了。

rnn的結(jié)構(gòu)和原理

看完初步的概念我們來深入一點(diǎn)看看RNN的結(jié)構(gòu)和原理。rnn的結(jié)構(gòu)和原理

pYYBAGC4meiAAdlHAABjM2jJoEw935.jpg

剛開始看到這幅圖的同學(xué)會(huì)不會(huì)有一點(diǎn)懵懵?沒關(guān)系,我們來帶著解釋一遍~

首先通過這副圖,就能明白R(shí)NN的意義就是每個(gè)輸出的狀態(tài)都只由前一時(shí)刻的狀態(tài)和當(dāng)前時(shí)刻的輸入來決定。從等式左邊的一個(gè)環(huán)繞箭頭就能明白參數(shù)是共享的。

一個(gè)序列的每個(gè)詞就是每個(gè)時(shí)間步,每個(gè)詞都會(huì)對(duì)應(yīng)得到一個(gè)hidden_state,并將這個(gè)隱藏層狀態(tài)輸入下一個(gè)時(shí)間步。

最終會(huì)得到output和hidden,output是每一步運(yùn)算的輸出,因此output=(seqence_len, batch_size, hidden_size)。hidden_state是每一步的輸出,當(dāng)然有參數(shù)來控制可以取最后一步的輸出,所以RNN中一般output=hidden。

lstm的結(jié)構(gòu)和原理

聊完一圈RNN之后,我們來看看它的變種兄弟-LSTM吧!

別慌,我說的不是變種成僵尸的那種東東,Lstm為長短期記憶,是在RNN的基礎(chǔ)上引入了細(xì)胞狀態(tài),根據(jù)細(xì)胞狀態(tài)可決定哪些狀態(tài)應(yīng)該保留下來,哪些狀態(tài)應(yīng)該被遺忘,可以在一定程度上解決梯度消失問題。

那么為了能夠?qū)W習(xí)序列關(guān)系的長期依賴,Lstm的輸出和rnn一樣都包含output和hidden,除此之外還有一個(gè)cell_state,這個(gè)就是學(xué)習(xí)序列信息lstm與rnn的差異。

在lstm里面理解的就是用“門”結(jié)構(gòu),來選擇信息通過,關(guān)鍵是用了$sigmoid(\cdot)$函數(shù)來區(qū)分趨于0的和趨于1的特征數(shù)據(jù)。

遺忘門:通過$f_t=\sigma(W_f \cdot[h_{t-1},x_t] + b_f)$ 來判斷隱藏層信息的取舍。

輸入門:

poYBAGC4meWADv9WAAAccVYUC9w682.jpg

通過$\tanh(\cdot)$,來將隱藏層狀態(tài)映射到(-1,1)最后來更新$C_{t-1}$ 到$C_t $

輸出門:

pYYBAGC4meyAMy7aAAAWL7NbiQI218.jpg

會(huì)發(fā)現(xiàn)$f_t、i_t、o_t$的構(gòu)成是一致的。但是通過不同的權(quán)重來學(xué)習(xí)。因此優(yōu)化lstm是將遺忘門和輸入門合并成了一個(gè)更新門,這就是GRU:

可以理解為主要分為兩部分,第一部分:

pYYBAGC4me2AOoxXAAASZqSshqY694.jpg

$z_t$表示更新向量,$r_t$表示重置向量,于是在接下來就能夠考慮$r_t$與$h_{t-1}$的相關(guān)性來去對(duì)部分?jǐn)?shù)據(jù)進(jìn)行重置,也就相當(dāng)于舍棄。實(shí)現(xiàn)遺忘門的效果。

第二部分:

poYBAGC4meiAGOzMAAAd9tihyU0202.jpg

很好理解,就可以通過篩選得到的有效的隱藏層信息$\tilde{h}t$和更新向量來獲取最終的輸出結(jié)果$(1-z_t) * h{t-1}$表示對(duì)當(dāng)前一時(shí)刻隱藏層狀態(tài)選擇性“遺忘”。$z_t * \tilde{h}_t$就表示對(duì)當(dāng)前序列信息的“記憶”。

sequence-to-sequence的結(jié)構(gòu)和原理

也叫做Encoder-Decoder結(jié)構(gòu),在encoder和decoder中也都是用序列模型,就是將數(shù)據(jù)先encode成一個(gè)上下文向量context vector,這個(gè)context vector可以是1)最后一個(gè)隱藏層狀態(tài),2)可以是完整的隱藏層輸出,3)也可以是對(duì)隱藏層輸出做激活或者線性變換之后的輸出。

之后在decoder中,將context vector作為前一時(shí)刻初始化的狀態(tài)輸入從而將語義按監(jiān)督信息的需要解碼。或者將context vector作為decoder每一個(gè)時(shí)間步的輸入。因此會(huì)發(fā)現(xiàn)seq2seq并不限制輸入和輸出的序列長度,這就表示應(yīng)用范圍可以很廣。

Attention

會(huì)發(fā)現(xiàn)context vector并不能夠包含長句的所有信息,或者說會(huì)造成信息的丟失,因此attention機(jī)制就是能夠向decoder的每一個(gè)時(shí)間步輸入不同的文本信息,提升語義的理解能力。

因?yàn)閘stm會(huì)得到完整的包含每一個(gè)時(shí)間步的輸出得到的ouput和hidden,因此$h_i$和$C_j$的相關(guān)性就能夠表示在decode第$j$步序列時(shí)最關(guān)心的文本是那一步的 $h_i $,用 $\alpha_{ij}$來表示。

每一個(gè)encoder的hidden單元和每一個(gè)decoder的hidden單元做點(diǎn)乘,得到每兩個(gè)單元之間的相關(guān)性,在lstm/rnn之后用attention就是計(jì)算hidden和ouput的每個(gè)單元之間的相關(guān)性,然后做一步$softmax$得到encoder的hidden或者說是lstm的hidden每個(gè)單元的attention weights。因此:Attention 無非就是這三個(gè)公式:

poYBAGC4meqAKxjvAAAT3nJUrlE172.jpg

從常規(guī)的(Q,K,V)的角度來理解,可以如圖所示:

pYYBAGC4mfCAE2pwAAApg85OSxU468.jpg

在Attention中$Q$和$K$分別是hidden和output,同樣的$V$也是ouput,在self-attention中Q=K=V,并且$\sqrt{d_k}$有些情況下是不會(huì)加在attention過程中的。

編輯:jq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7240

    瀏覽量

    90993
  • Gru
    Gru
    +關(guān)注

    關(guān)注

    0

    文章

    12

    瀏覽量

    7612
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【米爾-全志T536開發(fā)板試用體驗(yàn)】Wi-Fi連接測(cè)試體驗(yàn)

    ms 64 bytes from 36.152.44.93: seq=1 ttl=51 time=120.037 ms 64 bytes from 36.152.44.93: seq=2 ttl=51
    發(fā)表于 03-18 11:29

    函數(shù)HAL_I2C_Slave_Seq_Transmit_IT和HAL_I2C_Slave_Seq_Receive_IT實(shí)現(xiàn)代碼里有處理DMA請(qǐng)求,這是出于什么考慮?

    函數(shù)HAL_I2C_Slave_Seq_Transmit_IT和HAL_I2C_Slave_Seq_Receive_IT實(shí)現(xiàn)代碼里有處理DMA請(qǐng)求,這是出于什么考慮?求解答!
    發(fā)表于 03-14 09:01

    DLPLCR4500EVM打光結(jié)束后任然顯示Seq. Running, 并且pause與stop無法終止該狀態(tài)是怎么回事?

    無法終止該狀態(tài)(1.斷電后任然會(huì)出現(xiàn) 2.出現(xiàn)次后的每次打光都必現(xiàn) 3.點(diǎn)擊Apply Default Solution也同樣無效) 我認(rèn)為這是偶發(fā)情況, 所以我可能需要提供恢復(fù)出廠設(shè)置的API或操作方法, 或者是恢復(fù)部分觸發(fā)方面的參數(shù), 請(qǐng)不吝賜教, 感謝:)
    發(fā)表于 02-21 08:02

    RNN的應(yīng)用領(lǐng)域及未來發(fā)展趨勢(shì)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network, RNN)是種適合于處理序列數(shù)據(jù)的深度學(xué)習(xí)模型。由于其獨(dú)特的循環(huán)結(jié)構(gòu),RNN能夠處理時(shí)間序列數(shù)據(jù),捕捉時(shí)間序列中的動(dòng)態(tài)特征,因此在
    的頭像 發(fā)表于 11-15 10:10 ?1311次閱讀

    RNN與LSTM模型的比較分析

    RNN(循環(huán)神經(jīng)網(wǎng)絡(luò))與LSTM(長短期記憶網(wǎng)絡(luò))模型在深度學(xué)習(xí)領(lǐng)域都具有處理序列數(shù)據(jù)的能力,但它們?cè)诮Y(jié)構(gòu)、功能和應(yīng)用上存在顯著的差異。以下是對(duì)RNN與LSTM模型的比較分析: 、基本原理與結(jié)構(gòu)
    的頭像 發(fā)表于 11-15 10:05 ?1961次閱讀

    深度學(xué)習(xí)中RNN的優(yōu)勢(shì)與挑戰(zhàn)

    循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)是深度學(xué)習(xí)領(lǐng)域中處理序列數(shù)據(jù)的基石。它們通過在每個(gè)時(shí)間步長上循環(huán)傳遞信息,使得網(wǎng)絡(luò)能夠捕捉時(shí)間序列數(shù)據(jù)中的長期依賴關(guān)系。然而,盡管RNN在某些任務(wù)上表現(xiàn)出色,它們也面臨著
    的頭像 發(fā)表于 11-15 09:55 ?1204次閱讀

    RNN的基本原理與實(shí)現(xiàn)

    RNN,即循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network),是種特殊類型的人工神經(jīng)網(wǎng)絡(luò),專門設(shè)計(jì)用于處理序列數(shù)據(jù),如文本、語音、視頻等。以下是對(duì)RNN基本原理與實(shí)現(xiàn)的介紹:
    的頭像 發(fā)表于 11-15 09:49 ?1266次閱讀

    詳解SiC的晶體缺陷

    SiC晶體中存在各種缺陷,對(duì)SiC器件性能有直接的影響。研究清楚各類缺陷的構(gòu)成和生長機(jī)制非常重要。本文帶你了解SiC的晶體缺陷及其如何影響SiC器件特性。
    的頭像 發(fā)表于 11-14 14:53 ?1871次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>詳解SiC的晶體缺陷

    LSTM神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)RNN的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)因其能夠處理序列數(shù)據(jù)而受到廣泛關(guān)注。然而,傳統(tǒng)RNN在處理長序列時(shí)存在梯度消失或梯度爆炸的問題。為了解決這問題,LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)應(yīng)
    的頭像 發(fā)表于 11-13 09:58 ?1039次閱讀

    智慧公交是什么?帶你詳解智慧公交的解決方案!

    智慧公交是什么?帶你詳解智慧公交的解決方案!
    的頭像 發(fā)表于 11-05 12:26 ?824次閱讀
    智慧公交是什么?<b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>帶你</b>詳解智慧公交的解決方案!

    了解MySQL索引機(jī)制

    的呢?起靜下心來,耐心看完這篇文章吧,干貨不啰嗦,相信你定會(huì)有所收獲。 、索引模型 模型也就是數(shù)據(jù)結(jié)構(gòu),常見的三種模型分別是哈希表、有序數(shù)組和搜索樹。 了解MySQL的朋友已經(jīng)知
    的頭像 發(fā)表于 07-25 14:05 ?514次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>了解</b>MySQL索引<b class='flag-5'>機(jī)制</b>

    rnn是什么神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是種具有循環(huán)連接的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),并且具有記憶能力。與傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)(Feedforward Neural
    的頭像 發(fā)表于 07-05 09:49 ?1214次閱讀

    rnn神經(jīng)網(wǎng)絡(luò)模型原理

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),具有記憶功能。RNN在自然語言處理、語音識(shí)別、時(shí)間序列預(yù)測(cè)等領(lǐng)域有著廣泛
    的頭像 發(fā)表于 07-04 15:40 ?1013次閱讀

    RNN神經(jīng)網(wǎng)絡(luò)適用于什么

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它可以處理序列數(shù)據(jù),具有記憶功能。RNN在許多領(lǐng)域都有廣泛的應(yīng)用,以下是
    的頭像 發(fā)表于 07-04 15:04 ?1383次閱讀

    rnn神經(jīng)網(wǎng)絡(luò)基本原理

    RNN(Recurrent Neural Network,循環(huán)神經(jīng)網(wǎng)絡(luò))是種具有循環(huán)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò),它能夠處理序列數(shù)據(jù),并且能夠捕捉時(shí)間序列數(shù)據(jù)中的動(dòng)態(tài)特征。RNN在自然語言處理、語音識(shí)別、時(shí)間
    的頭像 發(fā)表于 07-04 15:02 ?1143次閱讀