女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:復(fù)旦DISC ? 作者:王思遠(yuǎn) ? 2022-04-02 17:21 ? 次閱讀

來(lái)自:復(fù)旦DISC

作者:王思遠(yuǎn)

引言

隨著預(yù)訓(xùn)練語(yǔ)言模型(PLMs)的不斷發(fā)展,各種NLP任務(wù)設(shè)置上都取得了不俗的性能。盡管PLMs可以從大量語(yǔ)料庫(kù)中學(xué)習(xí)一定的知識(shí),但仍舊存在很多問(wèn)題,如知識(shí)量有限、受訓(xùn)練數(shù)據(jù)長(zhǎng)尾分布影響魯棒性不好等,在實(shí)際應(yīng)用場(chǎng)景中效果不好。為了解決這個(gè)問(wèn)題,將知識(shí)注入到PLMs中已經(jīng)成為一個(gè)非常活躍的研究領(lǐng)域。本次分享將介紹三篇知識(shí)增強(qiáng)的預(yù)訓(xùn)練語(yǔ)言模型論文,分別通過(guò)基于知識(shí)向量、知識(shí)檢索以及知識(shí)監(jiān)督的知識(shí)注入方法來(lái)增強(qiáng)語(yǔ)言預(yù)訓(xùn)練模型。

文章概覽

KLMo:建模細(xì)粒度關(guān)系的知識(shí)圖增強(qiáng)預(yù)訓(xùn)練語(yǔ)言模型(KLMo: Knowledge Graph Enhanced Pretrained Language Model with Fine-Grained Relationships)

這篇文章提出同時(shí)將KG中的實(shí)體以及實(shí)體間的關(guān)系結(jié)合到語(yǔ)言學(xué)習(xí)過(guò)程中,來(lái)得到一個(gè)知識(shí)增強(qiáng)預(yù)訓(xùn)練模型。通過(guò)一個(gè)知識(shí)聚合器對(duì)文本中的實(shí)體片段和KG中的實(shí)體、關(guān)系向量之間的交互建模,從而將KG中的實(shí)體和關(guān)系向量融入語(yǔ)言模型中,還提出了關(guān)系預(yù)測(cè)和實(shí)體鏈接的預(yù)訓(xùn)練任務(wù)來(lái)整合KG中關(guān)系和實(shí)體信息。

用于知識(shí)增強(qiáng)語(yǔ)言模型預(yù)訓(xùn)練的基于知識(shí)圖合成語(yǔ)料庫(kù)生成(Knowledge Graph Based Synthetic Corpus Generation for Knowledge-Enhanced Language Model Pre-training)

檢索型語(yǔ)言模型通過(guò)從外部文本知識(shí)語(yǔ)料集中檢索知識(shí)增強(qiáng)模型,本文為了整合結(jié)構(gòu)化知識(shí)和自然語(yǔ)言數(shù)據(jù),提出了將知識(shí)圖譜轉(zhuǎn)換為自然文本,來(lái)為檢索型語(yǔ)言模型擴(kuò)充檢索知識(shí)語(yǔ)料庫(kù),從而使得結(jié)構(gòu)化知識(shí)無(wú)縫地集成到現(xiàn)有的預(yù)訓(xùn)練語(yǔ)言模型中。

ERICA:通過(guò)對(duì)比學(xué)習(xí)提高預(yù)訓(xùn)練語(yǔ)言模型對(duì)實(shí)體和關(guān)系的理解(ERICA: Improving Entity and Relation Understanding for Pre-trained Language Models via Contrastive Learning)

這篇文章提出對(duì)文本中的關(guān)系事實(shí)進(jìn)行建模來(lái)增強(qiáng)語(yǔ)言模型,具體地設(shè)計(jì)了實(shí)體判別和關(guān)系判別兩個(gè)預(yù)訓(xùn)練任務(wù)來(lái)以知識(shí)監(jiān)督的方式加深對(duì)實(shí)體和關(guān)系的理解,并通過(guò)對(duì)比學(xué)習(xí)的框架實(shí)現(xiàn)。

論文細(xì)節(jié)

1論文動(dòng)機(jī)

本文類似ERNIE-THU[1],通過(guò)引入知識(shí)向量增強(qiáng)預(yù)訓(xùn)練語(yǔ)言模型,然而以前的知識(shí)增強(qiáng)模型只利用實(shí)體信息,而忽略了實(shí)體之間的細(xì)粒度關(guān)系。而實(shí)體間的關(guān)系對(duì)于語(yǔ)言表示學(xué)習(xí)也至關(guān)重要,如圖KG中的關(guān)系信息影響了實(shí)體Trio of Happiness的類別預(yù)測(cè)。

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

將KG中的實(shí)體和關(guān)系明確地整合到PLMs中的主要挑戰(zhàn)是文本知識(shí)(實(shí)體和關(guān)系)對(duì)齊(TKA)問(wèn)題,為了解決這個(gè)問(wèn)題,文章提出了一個(gè)知識(shí)增強(qiáng)預(yù)訓(xùn)練語(yǔ)言模型(KLMo),通過(guò)一個(gè)知識(shí)聚合器對(duì)文本中的實(shí)體片段和KG中的實(shí)體、關(guān)系向量之間的交互建模,使得文本中token關(guān)注到高度相關(guān)的KG實(shí)體和關(guān)系。文章還提出了關(guān)系預(yù)測(cè)和實(shí)體鏈接的兩個(gè)預(yù)訓(xùn)練任務(wù),來(lái)整合KG中關(guān)系和實(shí)體信息,從而實(shí)現(xiàn)將KG中的實(shí)體和關(guān)系信息融入語(yǔ)言模型中。

模型

KLMo模型如下圖,結(jié)構(gòu)上類似ERNIE-THU,文本序列首先經(jīng)過(guò)一個(gè)文本編碼器,然后會(huì)被輸入到知識(shí)聚合器中來(lái)將實(shí)體和關(guān)系的知識(shí)向量融入到文本序列中,最后通過(guò)優(yōu)化關(guān)系預(yù)測(cè)和實(shí)體鏈接兩個(gè)預(yù)訓(xùn)練目標(biāo),從而將KG中高度相關(guān)的實(shí)體和關(guān)系信息合并到文本表示中。

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

1. 知識(shí)聚合器

知識(shí)聚合器包含兩個(gè)獨(dú)立的注意力機(jī)制:token級(jí)別自注意力和知識(shí)圖譜注意力,分別對(duì)輸入文本和KG進(jìn)行編碼,聚合器通過(guò)實(shí)體級(jí)別的交叉KG注意力,對(duì)文本中的實(shí)體片段與KG中的實(shí)體和關(guān)系之間的交互進(jìn)行建模,以將知識(shí)融入文本表示。

(1) 知識(shí)圖譜注意力機(jī)制

首先通過(guò)TransE得到KG中的實(shí)體和關(guān)系表示,并將其轉(zhuǎn)成一條實(shí)體和關(guān)系向量序列,作為聚合器的輸入。然后采用一個(gè)知識(shí)圖譜注意力機(jī)制,通過(guò)在傳統(tǒng)注意力機(jī)制中引入一個(gè)可視矩陣,從而在知識(shí)表示學(xué)習(xí)過(guò)程中考慮圖結(jié)構(gòu),該矩陣只允許相鄰節(jié)點(diǎn)和關(guān)系可以關(guān)注到彼此。

(2) 實(shí)體級(jí)別交叉KG注意力機(jī)制

給定一個(gè)實(shí)體提及列表,通過(guò)在文本中實(shí)體范圍內(nèi)的所有tokens上pooling計(jì)算得到文本中實(shí)體片段表示,然后將文本中的實(shí)體片段表示作為query,將KG中的實(shí)體和關(guān)系表示作為key和value,進(jìn)行注意力計(jì)算,從而得到知識(shí)增強(qiáng)的實(shí)體表示。

(3) 知識(shí)增強(qiáng)的文本表示

為了將知識(shí)增強(qiáng)的實(shí)體表示注入到文本表示中,文章采用一個(gè)知識(shí)融入操作,公式如下,得到的知識(shí)增強(qiáng)文本表示將會(huì)被傳入下一層知識(shí)聚合器中。

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

2. 預(yù)訓(xùn)練目標(biāo)

為了將知識(shí)融入到語(yǔ)言預(yù)訓(xùn)練中,KLMo采取了一個(gè)多任務(wù)損失函數(shù),除了傳統(tǒng)的masked language model損失,還引入了一個(gè)關(guān)系預(yù)測(cè)以及實(shí)體鏈接的損失函數(shù)。

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

實(shí)驗(yàn)

模型在百度百科網(wǎng)頁(yè)數(shù)據(jù)以及百科知識(shí)圖譜上進(jìn)行預(yù)訓(xùn)練,并在兩個(gè)分別用于實(shí)體分類以及關(guān)系分類的中文數(shù)據(jù)集上進(jìn)行了比較和評(píng)估,結(jié)果顯示實(shí)體之間的細(xì)粒度關(guān)系信息有助于KLMo更準(zhǔn)確地預(yù)測(cè)實(shí)體和關(guān)系的類別。

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

同時(shí)文章還在實(shí)體分類上對(duì)KLMo中實(shí)體和關(guān)系知識(shí)進(jìn)行了消融實(shí)驗(yàn),結(jié)果如下可以看出通過(guò)預(yù)訓(xùn)練,知識(shí)信息已經(jīng)被融入KLMo中。

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

2

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

論文動(dòng)機(jī)

本文基于檢索型預(yù)訓(xùn)練語(yǔ)言模型,通過(guò)從外部知識(shí)語(yǔ)料集檢索知識(shí)來(lái)增強(qiáng)語(yǔ)言模型,然而以前都是從文本語(yǔ)料集中檢索知識(shí),只能覆蓋有限的世界知識(shí)而忽略了結(jié)構(gòu)化知識(shí),并且知識(shí)在文本中的表達(dá)沒(méi)有在KG中那么明確,文本質(zhì)量的變化也會(huì)導(dǎo)致結(jié)果模型中的偏差。為了將結(jié)構(gòu)化知識(shí)整合到語(yǔ)言模型中,文章將結(jié)構(gòu)化知識(shí)圖譜轉(zhuǎn)換為自然文本,來(lái)為檢索型語(yǔ)言模型REALM[2]擴(kuò)充檢索知識(shí)語(yǔ)料庫(kù)KELM,從而使得結(jié)構(gòu)化知識(shí)無(wú)縫地集成到現(xiàn)有的預(yù)訓(xùn)練語(yǔ)言模型中。

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

本文提出將英文維基百科知識(shí)圖譜轉(zhuǎn)化成自然語(yǔ)言文本,如上圖,并構(gòu)建了一個(gè)英文Wikidata KG-Wikipedia Text的對(duì)齊數(shù)據(jù)集來(lái)訓(xùn)練文本化模型,從而生成了KELM數(shù)據(jù)集,擴(kuò)充REALM的檢索知識(shí)語(yǔ)料庫(kù)。

模型

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

1. 基于KG的文本生成器TEKGEN

文章首先提出了一個(gè)端到端的基于KG的文本化模型TEKGEN,具體流程如上圖:首先使用遠(yuǎn)程監(jiān)督來(lái)對(duì)齊維基百科文本和KG三元組;隨后T5模型按順序首先在這個(gè)語(yǔ)料庫(kù)上進(jìn)行微調(diào)來(lái)提升實(shí)體和關(guān)系覆蓋率,隨后在標(biāo)準(zhǔn)WebNLG語(yǔ)料庫(kù)上進(jìn)行少量步驟的訓(xùn)練來(lái)減少錯(cuò)誤;最后通過(guò)對(duì)BERT微調(diào)構(gòu)建一個(gè)過(guò)濾器,為生成文本針對(duì)三元組的語(yǔ)義質(zhì)量打分。

2. 合成知識(shí)檢索數(shù)據(jù)集KELM Corpus

這一步利用TEKGEN模型和過(guò)濾器來(lái)構(gòu)建一個(gè)合成語(yǔ)料庫(kù)KELM,以自然語(yǔ)言的格式捕獲KG知識(shí)。首先使用前面構(gòu)造的英文Wikidata KG-Wikipedia Text的對(duì)齊數(shù)據(jù)集的關(guān)系對(duì)創(chuàng)建實(shí)體子圖,隨后子圖中的知識(shí)三元組通過(guò)TEKGEN模型轉(zhuǎn)化為自然語(yǔ)言文本,從而構(gòu)建KELM數(shù)據(jù)集。

3.知識(shí)增強(qiáng)語(yǔ)言模型

文章將生成的KELM語(yǔ)料庫(kù)作為將KGs集成到預(yù)訓(xùn)練語(yǔ)言模型,如下圖所示,采用了基于檢索的預(yù)訓(xùn)練語(yǔ)言模型REALM,預(yù)訓(xùn)練過(guò)程中,除了掩碼句還會(huì)從檢索語(yǔ)料集中抽取一個(gè)文本作為輔助知識(shí)用來(lái)聯(lián)合預(yù)測(cè)掩蓋的單詞,而KELM則被用來(lái)替換/擴(kuò)充REALM中的檢索語(yǔ)料集,幫助語(yǔ)言模型引入結(jié)構(gòu)化知識(shí)。

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

實(shí)驗(yàn)

實(shí)驗(yàn)在知識(shí)探測(cè)(LAMA數(shù)據(jù)集)和開(kāi)放域QA(NaturalQuestions和WebQuestions)上進(jìn)行,作者分別嘗試REALM上的三種檢索語(yǔ)料集設(shè)定:ORIGINAL(Wikipedia Text)、REPLACED(only KELM Corpus)和AUGMENTED(Wikipedia text + KELM Corpus),結(jié)果如下:

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

可以看出通過(guò)文本化結(jié)構(gòu)知識(shí)來(lái)擴(kuò)充檢索語(yǔ)料集,在知識(shí)探測(cè)和開(kāi)放域QA上都有提升。作者還進(jìn)行了實(shí)驗(yàn),將原始的Wikidata三元組而非KELM語(yǔ)料庫(kù)整合進(jìn)語(yǔ)言模型,結(jié)果確認(rèn)了結(jié)構(gòu)化知識(shí)文本化的有效性。

3

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

論文動(dòng)機(jī)

本文通過(guò)知識(shí)監(jiān)督的方式來(lái)建模文本中的關(guān)系事實(shí)從而增強(qiáng)預(yù)訓(xùn)練語(yǔ)言模型,包括同時(shí)建模句子內(nèi)以及跨句子的關(guān)系信息,并提出對(duì)比學(xué)習(xí)的框架ERICA來(lái)全面學(xué)習(xí)實(shí)體和關(guān)系的交互,從而更好捕捉文本中關(guān)系事實(shí)。具體包含了兩個(gè)預(yù)訓(xùn)練任務(wù):(1)實(shí)體判別:給定一個(gè)頭實(shí)體和關(guān)系,推斷可能的尾實(shí)體;(2)關(guān)系判別:判別兩個(gè)關(guān)系是否語(yǔ)義相似。

模型

ERICA根據(jù)無(wú)監(jiān)督數(shù)據(jù)集和外部知識(shí)圖譜構(gòu)建遠(yuǎn)程監(jiān)督幫助預(yù)訓(xùn)練。給定一個(gè)段落,枚舉出所有實(shí)體以及它們之間存在的關(guān)系,從而構(gòu)建整個(gè)對(duì)比學(xué)習(xí)的正樣本集。

1. 實(shí)體&關(guān)系表示

給定一個(gè)文本,首先使用PLM進(jìn)行編碼并得到每個(gè)token的隱表示,然后對(duì)提及實(shí)體的連續(xù)tokens上的表示做mean pooling得到當(dāng)前實(shí)體表示,如果一個(gè)文本多次提及一個(gè)實(shí)體,則對(duì)多個(gè)表示進(jìn)行平均得到最終實(shí)體表示,而對(duì)于關(guān)系表示,通過(guò)組合關(guān)系的首尾實(shí)體的表示得到其表示。

2. 實(shí)體判別任務(wù)

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

從正樣本集中選擇一個(gè)元組,給定其中的頭實(shí)體和關(guān)系,通過(guò)對(duì)比學(xué)習(xí)使得正確尾實(shí)體相較于文本中其他實(shí)體,要和頭實(shí)體更相近,具體公式如下。

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

3. 關(guān)系判別任務(wù)

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

這個(gè)任務(wù)需要判別兩個(gè)關(guān)系是否語(yǔ)義相似,這里考慮到了句子內(nèi)以及跨句子的關(guān)系,從而使得模型隱式地學(xué)習(xí)到了復(fù)雜關(guān)系鏈。具體方法如上圖,通過(guò)對(duì)比學(xué)習(xí)使得相同的關(guān)系表示(由實(shí)體對(duì)表示計(jì)算得到)應(yīng)該更相近。

實(shí)驗(yàn)

本文在BERT和RoBERTa都進(jìn)行了增強(qiáng)訓(xùn)練,遠(yuǎn)程監(jiān)督根據(jù)English Wikipedia和Wikidata構(gòu)建,評(píng)估實(shí)驗(yàn)在關(guān)系抽取、實(shí)體分類和問(wèn)題回答任務(wù)上進(jìn)行的,實(shí)驗(yàn)結(jié)果分別如下:

Relation Extraction

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

Entity Typing

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

Question Answering

一文詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

可以看出ERICA模型在不同任務(wù)不同數(shù)據(jù)集合上都有一定的提升。

總結(jié)

本次分享我們介紹了三篇知識(shí)增強(qiáng)的預(yù)訓(xùn)練語(yǔ)言模型文章,分別圍繞知識(shí)向量、知識(shí)檢索以及知識(shí)監(jiān)督的方法來(lái)向語(yǔ)言模型中注入知識(shí)。第一篇通過(guò)一個(gè)知識(shí)聚合器將KG中的實(shí)體和關(guān)系向量顯式注入語(yǔ)言模型;第二篇通過(guò)將知識(shí)圖譜轉(zhuǎn)換為自然文本,為檢索型語(yǔ)言模型擴(kuò)充檢索知識(shí)語(yǔ)料庫(kù),從而將結(jié)構(gòu)化知識(shí)無(wú)縫地注入到語(yǔ)言模型中;第三篇基于知識(shí)監(jiān)督的方式來(lái)建模文本中的關(guān)系事實(shí)從而增強(qiáng)預(yù)訓(xùn)練語(yǔ)言模型。

原文標(biāo)題:從最新的ACL、NAACL和EMNLP中詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

文章出處:【微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 語(yǔ)言模型
    +關(guān)注

    關(guān)注

    0

    文章

    558

    瀏覽量

    10661

原文標(biāo)題:從最新的ACL、NAACL和EMNLP中詳解知識(shí)增強(qiáng)的語(yǔ)言預(yù)訓(xùn)練模型

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型的基礎(chǔ)技術(shù)

    全面剖析大語(yǔ)言模型的核心技術(shù)與基礎(chǔ)知識(shí)。首先,概述自然語(yǔ)言的基本表示,這是理解大語(yǔ)言模型技術(shù)的
    發(fā)表于 05-05 12:17

    【大語(yǔ)言模型:原理與工程實(shí)踐】大語(yǔ)言模型預(yù)訓(xùn)練

    訓(xùn)練數(shù)據(jù)時(shí),數(shù)量、質(zhì)量和多樣性三者缺不可。 數(shù)據(jù)的多樣性對(duì)于大語(yǔ)言模型至關(guān)重要,這主要體現(xiàn)在數(shù)據(jù)的類別和來(lái)源兩個(gè)方面。豐富的數(shù)據(jù)類別能夠提供多樣的
    發(fā)表于 05-07 17:10

    檢索增強(qiáng)語(yǔ)言表征模型預(yù)訓(xùn)練

    如果有預(yù)訓(xùn)練方法可以 顯式地 獲取知識(shí),如引用額外的大型外部文本語(yǔ)料庫(kù),在不增加模型大小或復(fù)雜性的情況下獲得準(zhǔn)確結(jié)果,會(huì)怎么樣?
    的頭像 發(fā)表于 09-27 14:50 ?2210次閱讀

    預(yù)訓(xùn)練語(yǔ)言模型設(shè)計(jì)的理論化認(rèn)識(shí)

    在這篇文章中,我會(huì)介紹篇最新的預(yù)訓(xùn)練語(yǔ)言模型的論文,出自MASS的同作者。這篇文章的亮點(diǎn)是:
    的頭像 發(fā)表于 11-02 15:09 ?2982次閱讀

    如何向大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型中融入知識(shí)

    本文關(guān)注于向大規(guī)模預(yù)訓(xùn)練語(yǔ)言模型(如RoBERTa、BERT等)中融入知識(shí)
    的頭像 發(fā)表于 06-23 15:07 ?4586次閱讀
    如何向大規(guī)模<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>語(yǔ)言</b><b class='flag-5'>模型</b>中融入<b class='flag-5'>知識(shí)</b>?

    Multilingual多語(yǔ)言預(yù)訓(xùn)練語(yǔ)言模型的套路

    Facebook在Crosslingual language model pretraining(NIPS 2019)中提出XLM預(yù)訓(xùn)練語(yǔ)言
    的頭像 發(fā)表于 05-05 15:23 ?3314次閱讀

    種基于亂序語(yǔ)言模型預(yù)訓(xùn)練模型-PERT

    由于亂序語(yǔ)言模型不使用[MASK]標(biāo)記,減輕了預(yù)訓(xùn)練任務(wù)與微調(diào)任務(wù)之間的gap,并由于預(yù)測(cè)空間大小為輸入序列長(zhǎng)度,使得計(jì)算效率高于掩碼語(yǔ)言
    的頭像 發(fā)表于 05-10 15:01 ?1770次閱讀

    利用視覺(jué)語(yǔ)言模型對(duì)檢測(cè)器進(jìn)行預(yù)訓(xùn)練

    預(yù)訓(xùn)練通常被用于自然語(yǔ)言處理以及計(jì)算機(jī)視覺(jué)領(lǐng)域,以增強(qiáng)主干網(wǎng)絡(luò)的特征提取能力,達(dá)到加速訓(xùn)練和提高模型
    的頭像 發(fā)表于 08-08 15:33 ?1642次閱讀

    預(yù)訓(xùn)練語(yǔ)言模型的字典描述

    今天給大家?guī)?lái)篇IJCAI2022浙大和阿里聯(lián)合出品的采用對(duì)比學(xué)習(xí)的字典描述知識(shí)增強(qiáng)預(yù)訓(xùn)練語(yǔ)言
    的頭像 發(fā)表于 08-11 10:37 ?1350次閱讀

    CogBERT:腦認(rèn)知指導(dǎo)的預(yù)訓(xùn)練語(yǔ)言模型

    方面,從語(yǔ)言處理的角度來(lái)看,認(rèn)知神經(jīng)科學(xué)研究人類大腦中語(yǔ)言處理的生物和認(rèn)知過(guò)程。研究人員專門設(shè)計(jì)了預(yù)訓(xùn)練
    的頭像 發(fā)表于 11-03 15:07 ?1288次閱讀

    預(yù)訓(xùn)練數(shù)據(jù)大小對(duì)于預(yù)訓(xùn)練模型的影響

    BERT類模型的工作模式簡(jiǎn)單,但取得的效果也是極佳的,其在各項(xiàng)任務(wù)上的良好表現(xiàn)主要得益于其在大量無(wú)監(jiān)督文本上學(xué)習(xí)到的文本表征能力。那么如何從語(yǔ)言學(xué)的特征角度來(lái)衡量個(gè)預(yù)
    的頭像 發(fā)表于 03-03 11:20 ?1786次閱讀

    基于預(yù)訓(xùn)練模型語(yǔ)言增強(qiáng)的零樣本視覺(jué)學(xué)習(xí)

    些非自然圖像中要比傳統(tǒng)模型表現(xiàn)更好 CoOp 增加些 prompt 會(huì)讓模型能力進(jìn)步提升 怎么讓能力更好?可以引入其他
    的頭像 發(fā)表于 06-15 16:36 ?755次閱讀
    基于<b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>模型</b>和<b class='flag-5'>語(yǔ)言</b><b class='flag-5'>增強(qiáng)</b>的零樣本視覺(jué)學(xué)習(xí)

    基于醫(yī)學(xué)知識(shí)增強(qiáng)的基礎(chǔ)模型預(yù)訓(xùn)練方法

    ? ? ? 近年來(lái),基于大數(shù)據(jù)預(yù)訓(xùn)練的多模態(tài)基礎(chǔ)模型 (Foundation Model) 在自然語(yǔ)言理解和視覺(jué)感知方面展現(xiàn)出了前所未有的進(jìn)展,在各領(lǐng)域中受到了廣泛關(guān)注。在醫(yī)療領(lǐng)域中,
    的頭像 發(fā)表于 07-07 11:10 ?1091次閱讀
    基于醫(yī)學(xué)<b class='flag-5'>知識(shí)</b><b class='flag-5'>增強(qiáng)</b>的基礎(chǔ)<b class='flag-5'>模型</b><b class='flag-5'>預(yù)</b><b class='flag-5'>訓(xùn)練</b>方法

    預(yù)訓(xùn)練模型的基本原理和應(yīng)用

    預(yù)訓(xùn)練模型(Pre-trained Model)是深度學(xué)習(xí)和機(jī)器學(xué)習(xí)領(lǐng)域中的個(gè)重要概念,尤其是在自然語(yǔ)言處理(NLP)和計(jì)算機(jī)視覺(jué)(CV)
    的頭像 發(fā)表于 07-03 18:20 ?4122次閱讀

    語(yǔ)言模型預(yù)訓(xùn)練

    能力,逐漸成為NLP領(lǐng)域的研究熱點(diǎn)。大語(yǔ)言模型預(yù)訓(xùn)練是這技術(shù)發(fā)展的關(guān)鍵步驟,它通過(guò)在海量無(wú)標(biāo)簽數(shù)據(jù)上進(jìn)行
    的頭像 發(fā)表于 07-11 10:11 ?873次閱讀