女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文看懂NLP里的模型框架 Encoder-Decoder和Seq2Seq

電子設(shè)計(jì) ? 來源:電子設(shè)計(jì) ? 作者:電子設(shè)計(jì) ? 2020-12-10 22:19 ? 次閱讀

Encoder-Decoder 和 Seq2Seq

機(jī)器翻譯、對話機(jī)器人、詩詞生成、代碼補(bǔ)全、文章摘要(文本 - 文本)

「文本 - 文本」 是最典型的應(yīng)用,其輸入序列和輸出序列的長度可能會(huì)有較大的差異。

Google 發(fā)表的用Seq2Seq做機(jī)器翻譯的論文《Sequence to Sequence Learning with Neural Networks》

語音識別音頻 - 文本)

語音識別也有很強(qiáng)的序列特征,比較適合 Encoder-Decoder 模型。

Google 發(fā)表的使用Seq2Seq做語音識別的論文《A Comparison of Sequence-to-Sequence Models for Speech Recognition》

圖像描述生成(圖片 - 文本)

通俗的講就是「看圖說話」,機(jī)器提取圖片特征,然后用文字表達(dá)出來。這個(gè)應(yīng)用是計(jì)算機(jī)視覺和 NLP 的結(jié)合。

圖像描述生成的論文《Sequence to Sequence – Video to Text》

Encoder-Decoder 的缺陷

上文提到:Encoder(編碼器)和 Decoder(解碼器)之間只有一個(gè)「向量 c」來傳遞信息,且 c 的長度固定。

為了便于理解,我們類比為「壓縮-解壓」的過程:

將一張 800X800 像素的圖片壓縮成 100KB,看上去還比較清晰。再將一張 3000X3000 像素的圖片也壓縮到 100KB,看上去就模糊了。

Encoder-Decoder 就是類似的問題:當(dāng)輸入信息太長時(shí),會(huì)丟失掉一些信息。

Attention 解決信息丟失問題

Attention 機(jī)制就是為了解決「信息過長,信息丟失」的問題。

Attention 模型的特點(diǎn)是 Eecoder 不再將整個(gè)輸入序列編碼為固定長度的「中間向量 C」 ,而是編碼成一個(gè)向量的序列。

這樣,在產(chǎn)生每一個(gè)輸出的時(shí)候,都能夠做到充分利用輸入序列攜帶的信息。而且這種方法在翻譯任務(wù)中取得了非常不錯(cuò)的成果。

審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48691

    瀏覽量

    246426
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22480
收藏 人收藏

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    【米爾-全志T536開發(fā)板試用體驗(yàn)】Wi-Fi連接測試體驗(yàn)

    ms 64 bytes from 36.152.44.93: seq=1 ttl=51 time=120.037 ms 64 bytes from 36.152.44.93: seq=2 ttl=51
    發(fā)表于 03-18 11:29

    函數(shù)HAL_I2C_Slave_Seq_Transmit_IT和HAL_I2C_Slave_Seq_Receive_IT實(shí)現(xiàn)代碼有處理DMA請求,這是出于什么考慮?

    函數(shù)HAL_I2C_Slave_Seq_Transmit_IT和HAL_I2C_Slave_Seq_Receive_IT實(shí)現(xiàn)代碼有處理DMA請求,這是出于什么考慮?求解答!
    發(fā)表于 03-14 09:01

    效應(yīng)方程的應(yīng)用

    本文要點(diǎn)效應(yīng)方程實(shí)際上意味著什么?在哪里可以觀察到效應(yīng)?如何在CFD中更好地實(shí)現(xiàn)
    的頭像 發(fā)表于 02-28 18:08 ?367次閱讀
    <b class='flag-5'>文</b>丘<b class='flag-5'>里</b>效應(yīng)方程的應(yīng)用

    DLPLCR4500EVM打光結(jié)束后任然顯示Seq. Running, 并且pause與stop無法終止該狀態(tài)是怎么回事?

    無法終止該狀態(tài)(1.斷電后任然會(huì)出現(xiàn) 2.出現(xiàn)次后的每次打光都必現(xiàn) 3.點(diǎn)擊Apply Default Solution也同樣無效) 我認(rèn)為這是偶發(fā)情況, 所以我可能需要提供恢復(fù)出廠設(shè)置的API或操作方法, 或者是恢復(fù)部分觸發(fā)方面的參數(shù), 請不吝賜教, 感謝:)
    發(fā)表于 02-21 08:02

    看懂電感、磁珠和零歐電阻的區(qū)別

    電子發(fā)燒友網(wǎng)站提供《看懂電感、磁珠和零歐電阻的區(qū)別.docx》資料免費(fèi)下載
    發(fā)表于 01-02 14:48 ?2次下載

    大語言模型開發(fā)框架是什么

    大語言模型開發(fā)框架是指用于訓(xùn)練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言模型開發(fā)框架
    的頭像 發(fā)表于 12-06 10:28 ?455次閱讀

    理解多模態(tài)大語言模型——下

    /understanding-multimodal-llms ? 《理解多模態(tài)大語言模型 - 上》介紹了什么是多模態(tài)大語言模型,以及構(gòu)建多模態(tài) LLM 有兩種主要方式之
    的頭像 發(fā)表于 12-03 15:18 ?507次閱讀
    <b class='flag-5'>一</b><b class='flag-5'>文</b>理解多模態(tài)大語言<b class='flag-5'>模型</b>——下

    nlp邏輯層次模型的特點(diǎn)

    NLP(自然語言處理)邏輯層次模型種用于理解和生成自然語言文本的計(jì)算模型。它將自然語言文本分解為不同的層次,以便于計(jì)算機(jī)更好地處理和理解。以下是對
    的頭像 發(fā)表于 07-09 10:39 ?723次閱讀

    nlp自然語言處理框架有哪些

    許多優(yōu)秀的框架和工具,這些框架和工具為研究人員和開發(fā)者提供了強(qiáng)大的支持。以下是些主要的NLP框架和工具的介紹: NLTK(Natural
    的頭像 發(fā)表于 07-09 10:28 ?935次閱讀

    llm模型有哪些格式

    : 基于Transformer的模型 Transformer是種基于自注意力機(jī)制的模型,廣泛應(yīng)用于NLP領(lǐng)域。基于Transformer的LLM
    的頭像 發(fā)表于 07-09 09:59 ?1285次閱讀

    nlp自然語言處理模型怎么做

    的進(jìn)展。本文將詳細(xì)介紹NLP模型的構(gòu)建過程,包括數(shù)據(jù)預(yù)處理、模型選擇、訓(xùn)練與優(yōu)化等方面。 數(shù)據(jù)預(yù)處理 數(shù)據(jù)預(yù)處理是NLP模型構(gòu)建的第
    的頭像 發(fā)表于 07-05 09:59 ?1048次閱讀

    nlp自然語言處理模型有哪些

    自然語言處理(Natural Language Processing,NLP)是計(jì)算機(jī)科學(xué)和人工智能領(lǐng)域的個(gè)重要分支,旨在使計(jì)算機(jī)能夠理解、解釋和生成人類語言。以下是對NLP領(lǐng)域
    的頭像 發(fā)表于 07-05 09:57 ?1317次閱讀

    NLP模型中RNN與CNN的選擇

    NLP中的應(yīng)用場景、工作原理、優(yōu)缺點(diǎn),以及在選擇時(shí)應(yīng)考慮的關(guān)鍵因素,以期為讀者提供個(gè)全面而深入的理解。
    的頭像 發(fā)表于 07-03 15:59 ?964次閱讀

    什么是自然語言處理 (NLP)

    自然語言處理(Natural Language Processing, NLP)是人工智能領(lǐng)域中的個(gè)重要分支,它專注于構(gòu)建能夠理解和生成人類語言的計(jì)算機(jī)系統(tǒng)。NLP的目標(biāo)是使計(jì)算機(jī)能夠像人類
    的頭像 發(fā)表于 07-02 18:16 ?1796次閱讀

    使用PyTorch搭建Transformer模型

    Transformer模型自其問世以來,在自然語言處理(NLP)領(lǐng)域取得了巨大的成功,并成為了許多先進(jìn)模型(如BERT、GPT等)的基礎(chǔ)。本文將深入解讀如何使用PyTorch框架搭建T
    的頭像 發(fā)表于 07-02 11:41 ?2437次閱讀