女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

NLP:面向方面級情感分類的注意力轉移網絡

深度學習自然語言處理 ? 來源:深度學習自然語言處理 ? 作者:趙飛 ? 2021-02-10 16:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

01

研究動機

方面級情感分類(英文叫Aspect-level Sentiment Classification,簡稱ASC)旨在檢測句子中給定意見目標的情感極性。意見目標(也稱為方面術語)是指評論中描述實體方面的單詞或短語。如圖1所示,"服務很好,但食物卻很糟糕"這句話包含兩個意見目標,即"食物"和"服務"。用戶對目標"服務"的看法是正面的,而對目標"食物"的看法卻是負面的。

94d22b88-603d-11eb-8b86-12bb97331649.png

圖1: 包含多個意見目標的句子示例

從上面的例子中我們可以看到,一個句子有時會包含多個意見目標,并且它們可能表達不同的情感極性,因此ASC的一個主要挑戰是如何為不同的意見目標獲取到不同的情感上下文。為此,大多數方法運用注意力機制(Bahdanau et al., 2014)來捕獲與給定目標相關的情感詞,然后將其匯總以進行情感預測。盡管注意力機制是有效的,但我們認為由于ASC標注數據是有限的,因此它未能充分發揮注意力機制的潛力。眾所周知,深度學習的結果很大程度上取決于訓練數據的多少。但是,在實際情況中,ASC數據的注釋費時且昂貴,因為注釋者不僅需要識別句子中所有的意見目標,而且還需要判斷其相應的情感極性。注釋困難導致現有公開的數據集都相對較小,這嚴重限制了注意力機制的潛力。

盡管缺少ASC數據,但是在線評論網站(例如Amazon和Yelp)可以提供大量的文檔級情感分類(DSC)標記數據。這些評論中包含了大量的情感知識和語義模式。因此,一個有意義但具有挑戰性的研究問題是如何利用資源豐富的DSC數據來提升低資源任務ASC。為此,He et al. (2018) 設計了PRET + MULT框架,通過共享淺層的embedding嵌入和LSTM層將情感知識從DSC數據傳遞到ASC任務。受膠囊網絡的啟發(Sabour et al., 2017),Chen and Qian (2019)提出TransCap模型,它共享底部的三個膠囊層,然后僅在最后一個ClassCap層中分離了兩個任務。從根本上說,PRET + MULT和Transcap通過共享參數和多任務學習來提升ASC,但是它們不能準確地控制和解釋要傳輸的知識。

為了解決上述提到的兩個問題,在這項工作中,我們提出了一種新穎的框架,即注意力轉移網絡(ATN),它從DSC任務中顯式的轉移注意力知識,以提高ASC任務中意見目標的注意力能力。與PRET + MULT和Transcap相比,我們的模型獲得了更好的結果并保留了良好的可解釋性。

02

解決方案

圖1顯示了注意轉移網絡(ATN)的總體組織結構。在ATN框架中,我們分別采用了兩個基于注意力的BiLSTM網絡作為DSC和ASC的基礎模塊,并提出了兩種將DSC中的注意力知識遷移到ASC的新方法。

953fa7bc-603d-11eb-8b86-12bb97331649.png

圖2: 注意力遷移網絡(ATN)的整體架構

第一種遷移方法稱為注意力引導。具體來說,我們首先在大規模的DSC數據集上預訓練一個基于注意力的BiLSTM網絡,然后利用DSC模塊中的注意力權重作為學習信號來引導ASC模塊更準確地捕捉情感線索,從而取得很好的結果。注意力引導通過輔助監督信號學習DSC模塊的注意力能力,但是,它不能在測試階段利用DSC模塊的注意力權重,并且浪費了預先訓練的知識。為了充分利用額外的注意能力,我們進一步提出了注意力融合方法來直接將它們合并。

這兩種方法雖然工作方式不同,但是都有各自的優點。注意力引導的目的是學習DSC模塊的注意力能力,由于在測試階段不使用DSC的外部注意力,因此具有更快的推理速度,而注意力融合可以利用DSC模塊在測試階段的注意力知識,做出更全面的預測。

03

實驗

我們在SemEval 2014 Task 44 (Pontiki et al., 2014)的兩個ASC基準數據集上評估了模型的性能。 它們分別包含來自laptop和restaurant領域的商品評論。我們在所有數據集中刪除了極性沖突的樣本。ASC數據集的統計數據如表1所示:

表1:ASC數據集的統計信息

95e0cab6-603d-11eb-8b86-12bb97331649.png

為了對DSC模塊進行預訓練,我們使用了兩個DSC數據集,分別是YelpReview和AmazonReview(Li et al., 2018a)。DSC數據集Yelp Review包含的注意力知識遷移到ASC數據集Restaurant。而laptop的注意力知識來自AmazonReview。表2顯示了它們的統計信息。在這項工作中,我們采用Accuracy和Macro-F1作為評估ASC任務中不同方法的性能指標。

表2:DSC數據集的統計信息

995f13c8-603d-11eb-8b86-12bb97331649.png

主要結果如表3所示。我們將結果分為三類:第一類列出了ASC任務的經典方法,第二類給出了兩種基于遷移的現有方法,最后一類是我們的基礎ASC模型和兩個增強版本。我們分別使用ATN-AG和ATN-AF來表示使用了注意力引導和注意力融合的ATN。

表3:主實驗結果(%)

9caeff02-603d-11eb-8b86-12bb97331649.png

我們的基礎ASC模型-基于注意力的BiLSTM通過位置嵌入得到了增強,其性能優于某些基于注意力的模型(如ATAE-LSTM和IAN)。這個結果表明位置嵌入對于在ASC任務中建模目標信息是有益的。在此基礎上,我們的注意力轉移模型ATN-AG和ATN-AF在restaurant數據集上的Accuracy分別提高了約1%和2%,在laptop數據集上提高了2.8%。此外,它們超過了兩種使用了轉移知識的現有方法,即PRET + MULT和Transcap。

這些結果證明了我們提出的將注意力知識從資源豐富的DSC數據轉移到ASC任務的有效性。與ATN-AG相比,ATN-AF在restaurant數據集上具有更好的性能。這是合理的,因為在測試階段,ATN-AG無法利用DSC模塊的注意力權重。盡管如此,ATN-AG仍在laptop數據集上獲得了有競爭力的結果,并且推理速度比ATN-AF快。

為了研究DSC數據集大小對我們方法的影響,我們將DSC數據的百分比從0%更改為100%,以報告ATN-AG和ATN-AF的結果。臨界值0%和100%分別表示無DSC數據和使用完整的DSC數據集。結果如圖2所示:

a08d5c18-603d-11eb-8b86-12bb97331649.png

圖3: 在不同百分比的DSC數據下ATN-AG和ATN-AF的性能

為了分析超參數λ對ATN-AG的影響,我們在[0,1]中對其進行調整以進行實驗,步長為0.1。 圖3顯示了restaurant和laptop數據集上具有不同λ的ATN-AG的性能:

a511fe10-603d-11eb-8b86-12bb97331649.png

圖4: 超參數λ對ATN-AG的影響

在ATN模型中,我們提出了注意力指導和注意力融合的方法,以幫助ASC模塊更準確地捕獲情感線索。為了驗證這一點,我們分析了數十個測試集中的示例。與基礎ASC模型相比,我們發現注意力轉移方法可以處理低頻情感詞和諸如否定之類的復雜情感模式。表4顯示了兩個示例的注意力可視化結果以及在模型ATN-AG和ATN-AF下的相應情感預測。

a5b0606e-603d-11eb-8b86-12bb97331649.png

圖5: ATN-AG和ATN-AF的注意力可視化結果,較深的顏色表示較高的注意力權重

04

總結

標注數據不足會限制基于注意力的模型對ASC任務的有效性。 本文提出了一種新穎的注意力轉移框架,其中設計了兩種不同的注意力轉移方法,以利用資源豐富的文檔級情感分類語料庫中的注意力知識來增強資源貧乏的方面級情感分類的注意力過程,最終達到改善ASC性能的目標。 實驗結果表明,我們的方法優于最新技術。 進一步的分析驗證了從DSC數據轉移注意力知識到ASC任務的有效性和好處。

責任編輯:xj

原文標題:【COLING2020】面向方面級情感分類的注意力轉移網絡

文章出處:【微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 情感識別
    +關注

    關注

    1

    文章

    10

    瀏覽量

    7641
  • 自然語言
    +關注

    關注

    1

    文章

    291

    瀏覽量

    13628
  • nlp
    nlp
    +關注

    關注

    1

    文章

    490

    瀏覽量

    22557

原文標題:【COLING2020】面向方面級情感分類的注意力轉移網絡

文章出處:【微信號:zenRRan,微信公眾號:深度學習自然語言處理】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    經顱電刺激適應癥之tDCS治療注意力缺陷ADHD

    ADHD是常見神經行為障礙,癥狀包括注意力不集中、多動和沖動,兒童和青少年患病率為5%-7.2%,成人在1%-10%,男孩多于女孩,成年后部分癥狀會持續,引發多種并發癥,給個人、家庭和社會帶來
    的頭像 發表于 04-22 19:49 ?143次閱讀
    經顱電刺激適應癥之tDCS治療<b class='flag-5'>注意力</b>缺陷ADHD

    如何使用MATLAB構建Transformer模型

    LanguageProcessing, NLP)中的序列到序列任務,如機器翻譯。Transformer 通過引入自注意力機制使得處理長距離依賴關系時變得高效。因此 Vaswani 等人的論文強調“注意力是所需的一切”。
    的頭像 發表于 02-06 10:21 ?3841次閱讀
    如何使用MATLAB構建Transformer模型

    基于LSTM神經網絡情感分析方法

    情感分析是自然語言處理(NLP)領域的一項重要任務,旨在識別和提取文本中的主觀信息,如情感傾向、情感強度等。隨著深度學習技術的發展,基于LSTM(長短期記憶)神經
    的頭像 發表于 11-13 10:15 ?1232次閱讀

    一種基于因果路徑的層次圖卷積注意力網絡

    機電系統中的故障檢測對其可維護性和安全性至關重要。然而,系統監測變量往往具有復雜的聯系,很難表征它們的關系并提取有效的特征。本文開發了一種基于因果路徑的層次圖卷積注意力網絡(HGCAN),以提高復雜
    的頭像 發表于 11-12 09:52 ?1011次閱讀
    一種基于因果路徑的層次圖卷積<b class='flag-5'>注意力</b><b class='flag-5'>網絡</b>

    如何進行自然語言處理模型訓練

    1. 確定目標和需求 在開始之前,你需要明確你的NLP項目的目標是什么。這可能是文本分類情感分析、機器翻譯、問答系統等。明確目標有助于選擇合適的數據集和模型架構。 2. 數據收集和預處理 數據收集
    的頭像 發表于 11-11 10:43 ?1152次閱讀

    BP神經網絡在語言特征信號分類中的應用

    隨著人工智能技術的飛速發展,語言特征信號分類作為語音識別、語種識別及語音情感分析等領域的重要基礎,正逐漸受到研究者的廣泛關注。BP神經網絡(Back Propagation Neural
    的頭像 發表于 07-10 15:44 ?756次閱讀

    nlp神經語言和NLP自然語言的區別和聯系

    來改變我們的行為和情感NLP的目標是幫助人們實現自我改進,提高溝通技巧,增強領導和解決問題的能力。 NLP的主要組成部分包括: 感知:了解我們如何接收和處理信息。 語言:研究我們如
    的頭像 發表于 07-09 10:35 ?1160次閱讀

    nlp自然語言處理基本概念及關鍵技術

    自然語言處理(Natural Language Processing,簡稱NLP)是人工智能領域的一個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。NLP技術在機器翻譯、情感分析、語音識別
    的頭像 發表于 07-09 10:32 ?1305次閱讀

    nlp自然語言處理的主要任務及技術方法

    的應用,如搜索引擎、機器翻譯、語音識別、情感分析等。 NLP的主要任務 NLP的主要任務可以分為以下幾個方面: 1.1 詞法分析(Lexical Analysis) 詞法分析是
    的頭像 發表于 07-09 10:26 ?2107次閱讀

    llm模型有哪些格式

    : 基于Transformer的模型 Transformer是一種基于自注意力機制的模型,廣泛應用于NLP領域。基于Transformer的LLM模型包括: a. BERT(Bidirectional Encoder
    的頭像 發表于 07-09 09:59 ?1344次閱讀

    nlp自然語言處理模型怎么做

    的進展。本文將詳細介紹NLP模型的構建過程,包括數據預處理、模型選擇、訓練與優化等方面。 數據預處理 數據預處理是NLP模型構建的第一步,其目的是將原始文本數據轉換為模型能夠處理的格式。數據預處理主要包括以下幾個步驟: 1.1
    的頭像 發表于 07-05 09:59 ?1114次閱讀

    深度學習與nlp的區別在哪

    深度學習和自然語言處理(NLP)是計算機科學領域中兩個非常重要的研究方向。它們之間既有聯系,也有區別。本文將介紹深度學習與NLP的區別。 深度學習簡介 深度學習是一種基于人工神經網絡的機器學習方法
    的頭像 發表于 07-05 09:47 ?1582次閱讀

    NLP技術在機器人中的應用

    在人工智能的廣闊領域中,自然語言處理(NLP)技術作為連接人類語言與機器智能的橋梁,正逐漸滲透到我們日常生活的方方面面,其中機器人技術便是一個尤為突出的應用領域。NLP技術不僅賦予了機器人理解
    的頭像 發表于 07-04 16:04 ?942次閱讀

    NLP模型中RNN與CNN的選擇

    在自然語言處理(NLP)領域,循環神經網絡(RNN)與卷積神經網絡(CNN)是兩種極為重要且廣泛應用的網絡結構。它們各自具有獨特的優勢,適用于處理不同類型的
    的頭像 發表于 07-03 15:59 ?1026次閱讀

    卷積神經網絡在文本分類領域的應用

    在自然語言處理(NLP)領域,文本分類一直是一個重要的研究方向。隨著深度學習技術的飛速發展,卷積神經網絡(Convolutional Neural Network,簡稱CNN)在圖像識別領域取得了
    的頭像 發表于 07-01 16:25 ?1170次閱讀