女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

用于改進(jìn)文本分類的特征投影

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2021-03-05 15:35 ? 次閱讀

TL; DR

在情感分類中,一些good features,比如”good“、”nice“表示積極,”bad“、“terrible”表示消極。但是,還有許多common features,比如voice、screen就沒有特別的情感性。

盡管深度學(xué)習(xí)擁有強(qiáng)大的representation learning(表征學(xué)習(xí),即同一個(gè)數(shù)據(jù)用不同的表示形式)。但我們認(rèn)為還有可以改進(jìn)的地方。

在本文中,我們提出了一種新的角度來進(jìn)一步改善這種表示學(xué)習(xí),即特征投影(feature projection):將現(xiàn)有特征投影到common特征的正交空間中。

所得的投影向量垂直于common特征,能更好的進(jìn)行分類。

將該方法用于改進(jìn)基于CNN,RNN,Transformer和Bert的文本分類模型,獲得更好的結(jié)果。

網(wǎng)絡(luò)結(jié)構(gòu)

Feature Purification Network 特征凈化網(wǎng)絡(luò)

模型分為兩部分:

projection network (P-net);

common feature learning network (C-net)

P-net:計(jì)算凈化的向量特征,通過將學(xué)習(xí)到的輸入文本的信息向量投影到更具區(qū)分性的語義空間中來消除共同特征的影響。

C-net:提取common features。

P-net由四部分組成:

輸入層X

特征提取器Fp

正交投影層(OPL,Orthogonal Projection Layer)

分類層Cp

C-net也由四部分組成:

輸入層X

特征提取器Fc(Fp和Fc的參數(shù)不共享)

漸變反向?qū)樱℅RL,Gradient Reverse Layer)

分類層Cc

技術(shù)的關(guān)鍵思想如下:

P-Net中特征向量fp投影到C-Net的fc的正交方向上。也就是說,將fp(從輸入文檔中提取的完整信息)投影到更具區(qū)分性的語義空間中,以進(jìn)行最終分類。

圖2:正交投影層的工作方式。這里的示例是在二維空間中。

fp表示傳統(tǒng)特征向量;

fc表示公共特征向量;

fp?是投影特征向量;

fp~是最終的正交投影特征向量。

我們首先將傳統(tǒng)特征向量fp投影到共同特征向量fc,得到fp?。

等式9中的fp?即表示對(duì)共同特征向量fc的約束。

再將fp投影到fp-fp*得到fp~

也就是說:通過將輸入的傳統(tǒng)特征向量fp投影到公共特征向量fc來限制公共特征向量的模,因此新的公共特征向量fp*的語義信息僅包含xi的公共語義信息。

這使得最終的純化特征向量fp~來自傳統(tǒng)特征向量fp,而不是與公共特征向量fc正交的任何平面中的任何向量。

最后,我們使用純化的特征向fp~進(jìn)行分類。

Experiments實(shí)驗(yàn)

1 實(shí)驗(yàn)使用數(shù)據(jù)集

2 Baselines模型

用LSTM、CNN、Transformer和BERT等基準(zhǔn)模型進(jìn)行對(duì)比實(shí)驗(yàn),已驗(yàn)證特征投射的有效性。

3 實(shí)施細(xì)節(jié)

首先,我們將實(shí)驗(yàn)中的所有詞嵌入隨機(jī)初始化為200維向量,然后在訓(xùn)練過程中進(jìn)行修改(Bert除外)。對(duì)于每種類型的特征提取器,我們具有以下配置:

對(duì)于RNN模型,使用兩層LSTM進(jìn)行特征提取,每層的hidden state=256;

對(duì)于CNN模型,為了獲得更多的細(xì)粒度特征,我們分別使用了[2,3,4,5,6]的濾波器大小,每個(gè)濾波器都有100個(gè)特征圖。

對(duì)于Transformer的模型,我們使用Transformer的編碼器作為特征提取器,使用單頭和3個(gè)block。

對(duì)于Bert模型,我們微調(diào)了預(yù)訓(xùn)練的基于Bert的參數(shù)。這些設(shè)置與FP-Net中的基線完全相同。

在C-net模塊的訓(xùn)練中,我們以0.9為初始學(xué)習(xí)率的隨機(jī)梯度和隨后的退火學(xué)習(xí)率(Ganin and Lempitsky,2014)。

其中,訓(xùn)練進(jìn)度p從0線性變化為1,l0 = 0.01,α= 10和β= 0.75。在GRL中,超參數(shù)λ為[0.05,0.1,0.2,0.4,0.8,1.0]。

4 實(shí)驗(yàn)結(jié)果

5 消融實(shí)驗(yàn)與分析

消融實(shí)驗(yàn)類似于“控制變量法”。假設(shè)在某任務(wù)中,使用了A,B,C,取得了不錯(cuò)的效果,但是這個(gè)時(shí)候你并不知道效果是由A,B,C中哪一個(gè)起的作用,于是你保留A,B,移除C進(jìn)行實(shí)驗(yàn)來看一下C在整個(gè)任務(wù)中所起的作用。

結(jié)論

在本文中,我們提出了一種新的特征凈化網(wǎng)絡(luò)(FP-Net),以改進(jìn)文本分類的表示;

該方法基于特征投影。所提出的模型使用兩個(gè)子網(wǎng),一個(gè)用于識(shí)別對(duì)分類沒有區(qū)別的共同特征common features,另一個(gè)用于將傳統(tǒng)特征投射到共同特征的正交方向的特征投影;

我們當(dāng)前的方法僅用于傳統(tǒng)文本分類方法,例如LSTM,CNN和Transformer。在未來的工作中,我們將考慮將其擴(kuò)展到基于圖的方法(例如用于圖形數(shù)據(jù)的GCN),以及擴(kuò)展到基于生成的方法(例如用于對(duì)抗性學(xué)習(xí)的GAN)。

責(zé)任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 文本分類
    +關(guān)注

    關(guān)注

    0

    文章

    18

    瀏覽量

    7382
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5554

    瀏覽量

    122473
  • cnn
    cnn
    +關(guān)注

    關(guān)注

    3

    文章

    354

    瀏覽量

    22627

原文標(biāo)題:【ACL2020】用于改進(jìn)文本分類的特征投影

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    DLP4500連續(xù)觸發(fā)投影,大約投影一百多次后,再觸發(fā)就不投影了,為什么?

    在vs程序總將投影的控制進(jìn)行了實(shí)現(xiàn),投影序列設(shè)置如下圖: 1. 測(cè)試連續(xù)觸發(fā)時(shí):每隔一秒觸發(fā)一次投影,大約投影一百多次后,再觸發(fā)就不投影
    發(fā)表于 03-03 08:33

    用DLP4500投影正弦光柵時(shí)存在高頻噪聲,應(yīng)該如何改進(jìn)正弦光柵質(zhì)量?

    用DLP4500投影正弦光柵時(shí)存在高頻噪聲,應(yīng)該如何改進(jìn)正弦光柵質(zhì)量?
    發(fā)表于 02-26 07:24

    dlpc3479用于dlp4710這款DMD上,該系統(tǒng)的最大投影幀率是多少?

    請(qǐng)問一下,dlpc3479用于dlp4710這款DMD上, 該系統(tǒng)的最大投影幀率是多少?以及相應(yīng)的文檔資料, 非常感謝
    發(fā)表于 02-24 07:21

    如何使用自然語言處理分析文本數(shù)據(jù)

    媒體、新聞報(bào)道、用戶評(píng)論等)收集你感興趣的文本數(shù)據(jù)。 數(shù)據(jù)清洗 :去除無關(guān)字符(如HTML標(biāo)簽、特殊符號(hào)等),確保文本數(shù)據(jù)干凈且一致。 2. 預(yù)處理 分詞 :將文本分割成有意義的單元(單詞、短語或句子),這取決于使用的語言和分析
    的頭像 發(fā)表于 12-05 15:27 ?1326次閱讀

    DMD芯片應(yīng)用于投影儀的優(yōu)勢(shì)

    DMD(Digital Micromirror Device)芯片是數(shù)字光學(xué)投影技術(shù)(DLP)的核心組件,它將數(shù)字信號(hào)轉(zhuǎn)換成可見的投影圖像。DMD芯片應(yīng)用于投影儀時(shí),具有顯著的優(yōu)勢(shì),具
    的頭像 發(fā)表于 12-05 10:47 ?1505次閱讀

    圖紙模板中的文本變量

    進(jìn)行定義。無論是系統(tǒng)內(nèi)置的變量,還是用戶自定義的變量,都以這種方式表述。 系統(tǒng)內(nèi)置文本變量 以下表格展示系統(tǒng)內(nèi)置的文本變量,無需定義,可以直接使用: 比如說,如果在圖紙編輯器中定義了以下標(biāo)題欄: 當(dāng)該圖紙模板應(yīng)用于原理圖或PCB
    的頭像 發(fā)表于 11-13 18:21 ?533次閱讀
    圖紙模板中的<b class='flag-5'>文本</b>變量

    雷達(dá)的基本分類方法

    電子發(fā)燒友網(wǎng)站提供《雷達(dá)的基本分類方法.pdf》資料免費(fèi)下載
    發(fā)表于 09-11 09:09 ?6次下載

    利用TensorFlow實(shí)現(xiàn)基于深度神經(jīng)網(wǎng)絡(luò)的文本分類模型

    要利用TensorFlow實(shí)現(xiàn)一個(gè)基于深度神經(jīng)網(wǎng)絡(luò)(DNN)的文本分類模型,我們首先需要明確幾個(gè)關(guān)鍵步驟:數(shù)據(jù)預(yù)處理、模型構(gòu)建、模型訓(xùn)練、模型評(píng)估與調(diào)優(yōu),以及最終的模型部署(盡管在本文中,我們將重點(diǎn)放在前四個(gè)步驟上)。下面,我將詳細(xì)闡述這些步驟,并給出一個(gè)具體的示例。
    的頭像 發(fā)表于 07-12 16:39 ?1417次閱讀

    BP神經(jīng)網(wǎng)絡(luò)在語言特征信號(hào)分類中的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,語言特征信號(hào)分類作為語音識(shí)別、語種識(shí)別及語音情感分析等領(lǐng)域的重要基礎(chǔ),正逐漸受到研究者的廣泛關(guān)注。BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural
    的頭像 發(fā)表于 07-10 15:44 ?696次閱讀

    深度學(xué)習(xí)中的時(shí)間序列分類方法

    的發(fā)展,基于深度學(xué)習(xí)的TSC方法逐漸展現(xiàn)出其強(qiáng)大的自動(dòng)特征提取和分類能力。本文將從多個(gè)角度對(duì)深度學(xué)習(xí)在時(shí)間序列分類中的應(yīng)用進(jìn)行綜述,探討常用的深度學(xué)習(xí)模型及其改進(jìn)方法,并展望未來的研究
    的頭像 發(fā)表于 07-09 15:54 ?1920次閱讀

    計(jì)算機(jī)視覺怎么給圖像分類

    圖像分類是計(jì)算機(jī)視覺領(lǐng)域中的一項(xiàng)核心任務(wù),其目標(biāo)是將輸入的圖像自動(dòng)分配到預(yù)定義的類別集合中。這一過程涉及圖像的特征提取、特征表示以及分類器的設(shè)計(jì)與訓(xùn)練。隨著深度學(xué)習(xí)技術(shù)的飛速發(fā)展,圖像
    的頭像 發(fā)表于 07-08 17:06 ?1541次閱讀

    全息投影呈現(xiàn)什么影像特征

    全息投影技術(shù)是一種利用光的干涉和衍射原理,將物體的三維信息記錄在全息圖上,并通過適當(dāng)?shù)墓庠丛佻F(xiàn)物體的三維影像的技術(shù)。全息投影技術(shù)具有許多獨(dú)特的影像特征,以下是對(duì)這些特征的介紹: 三維性
    的頭像 發(fā)表于 07-08 11:15 ?1170次閱讀

    cnn卷積神經(jīng)網(wǎng)絡(luò)分類有哪些

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像分類、目標(biāo)檢測(cè)、語義分割等領(lǐng)域。本文將詳細(xì)介紹CNN在分類任務(wù)中的應(yīng)用,包括基本結(jié)構(gòu)、關(guān)鍵技術(shù)、常見網(wǎng)絡(luò)架構(gòu)以及實(shí)際應(yīng)用案例。 引言 1.1
    的頭像 發(fā)表于 07-03 09:28 ?1298次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)在文本分類領(lǐng)域的應(yīng)用

    顯著成就后,也逐漸被引入到文本分類任務(wù)中。卷積神經(jīng)網(wǎng)絡(luò)通過模擬人類視覺系統(tǒng)的信息處理方式,能夠有效地提取文本中的局部特征,進(jìn)而實(shí)現(xiàn)高精度的文本分類。本文將對(duì)卷積神經(jīng)網(wǎng)絡(luò)在
    的頭像 發(fā)表于 07-01 16:25 ?1096次閱讀

    交換機(jī)的基本分類

      交換機(jī)作為網(wǎng)絡(luò)通訊中的核心設(shè)備之一,其在網(wǎng)絡(luò)架構(gòu)中起著至關(guān)重要的作用。隨著信息技術(shù)的飛速發(fā)展,交換機(jī)也在不斷演進(jìn)和革新,以滿足日益復(fù)雜的網(wǎng)絡(luò)需求。本文將對(duì)交換機(jī)的分類及其特點(diǎn)進(jìn)行詳細(xì)介紹,以期為讀者提供清晰、深入的理解。
    的頭像 發(fā)表于 06-06 11:06 ?3089次閱讀