女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于用于自然語(yǔ)言生成的“語(yǔ)境調(diào)優(yōu)”技術(shù)

深度學(xué)習(xí)自然語(yǔ)言處理 ? 來(lái)源:深度學(xué)習(xí)自然語(yǔ)言處理 ? 作者:深度學(xué)習(xí)自然語(yǔ)言 ? 2022-10-14 15:38 ? 次閱讀

一、引言

自然語(yǔ)言生成(又稱為文本生成)旨在基于輸入數(shù)據(jù)用人類語(yǔ)言生成合理且可讀的文本。隨著預(yù)訓(xùn)練語(yǔ)言模型的發(fā)展,GPT-3,BART等模型逐漸成為了生成任務(wù)的主流模型。近年來(lái),為了利用預(yù)訓(xùn)練階段編碼的豐富知識(shí),提示學(xué)習(xí)成為了一個(gè)簡(jiǎn)單而強(qiáng)大的方法。

這篇工作主要聚焦于開(kāi)放式文本生成,例如故事生成和評(píng)論生成。在這種場(chǎng)景下,輸入僅包含有限的信息,而任務(wù)目標(biāo)是要生成富含信息量且與主題相關(guān)的長(zhǎng)文本。例如下表中的例子,我們需要寫(xiě)一段關(guān)于“l(fā)ive-action”和“animation”的評(píng)論,這需要對(duì)這兩個(gè)主題的背景信息有深入的了解。現(xiàn)有的提示學(xué)習(xí)方法,會(huì)在輸入前加上人工的離散提示(例如表中的“Write a story about:”),或者在輸入前加上可學(xué)習(xí)的連續(xù)型提示。但是這些提示是靜態(tài)的,更多是包含任務(wù)相關(guān)的信息,但與輸入無(wú)關(guān),很難依靠他們?nèi)ド筛缓畔⒘康奈谋尽?/p>

61060508-4ade-11ed-a3b6-dac502259ad0.jpg

同時(shí)在長(zhǎng)文本生成中,一個(gè)常見(jiàn)的問(wèn)題是“跑題”,即生成的文本逐漸和主題無(wú)關(guān)。為了解決以上兩個(gè)問(wèn)題,我們分別提出了語(yǔ)境提示(contextualized prompts)連續(xù)反向提示(continuous inverse prompting),來(lái)增強(qiáng)生成文本的信息量相關(guān)性

二、語(yǔ)境調(diào)優(yōu)(Context-Tuning)

本文提出了一種創(chuàng)新的連續(xù)提示方法,稱語(yǔ)境調(diào)優(yōu),用于微調(diào)預(yù)訓(xùn)練模型來(lái)進(jìn)行自然語(yǔ)言生成,我們的核心貢獻(xiàn)有三點(diǎn):①我們首次提出了輸入相關(guān)的提示——語(yǔ)境提示,抽取預(yù)訓(xùn)練模型中的知識(shí)作為提示來(lái)豐富生成文本的信息量。②我們使用了連續(xù)反向提示,最大化基于輸出生成輸入的概率,來(lái)增強(qiáng)生成文本的相關(guān)性。③我們使用了一種輕量化的語(yǔ)境調(diào)優(yōu)方法,在只微調(diào)0.12%參數(shù)的情況下保持98%的性能

1.語(yǔ)境提示(contextualized prompts)

語(yǔ)境提示是基于輸入文本生成的提示,我們使用BERT作為提示生成器來(lái)抽取模型中有關(guān)輸入的知識(shí),以此達(dá)到豐富信息量的目的。 611f56ac-4ade-11ed-a3b6-dac502259ad0.jpg ? 具體的,我們?cè)??兩端各放置??個(gè)??得到BERT的輸入: ?? 經(jīng)過(guò)BERT的編碼,我們得到這些??的頂層表示,作為初始提示: ?? 然后我們使用一種“語(yǔ)義對(duì)齊”操作,將這些隱提示對(duì)應(yīng)到真實(shí)詞表空間,得到我們的語(yǔ)境提示??: ?? 其中??是BERT的詞表矩陣,??是BERT預(yù)測(cè)??的映射矩陣。直覺(jué)地,我們可以將語(yǔ)義對(duì)齊操作看做是預(yù)測(cè)??的概率分布,然后將相應(yīng)的詞向量加權(quán)平均。 ? 最后我們將語(yǔ)境提示加在輸入兩端,使用BART作為我們的生成模型,建模輸入??到輸出??的概率: ?? 2.連續(xù)反向提示(continuous inverse prompting) 連續(xù)反向提示通過(guò)建模從輸出到輸入的反向過(guò)程,改進(jìn)自然語(yǔ)言生成,使生成文本與輸入的相關(guān)性更強(qiáng)。 615e44b6-4ade-11ed-a3b6-dac502259ad0.jpg ? 我們有這樣一個(gè)假設(shè),如果我們可以從輸出恢復(fù)輸入,我們便認(rèn)為輸出與輸入相關(guān)。但在一些生成場(chǎng)景下,這從輸出恢復(fù)輸入并不自然,因此我們使用連續(xù)反向提示來(lái)緩解這一現(xiàn)象。我們?cè)谳敵鰞啥颂砑舆B續(xù)反向提示??,并建模輸出到輸入的概率: ?? 我們期望反向提示可以更好地反映輸出到輸入的關(guān)系,這更多取決于任務(wù)本身,因此這里的反向提示是靜態(tài)的。 ? 最后,我們結(jié)合語(yǔ)境提示和連續(xù)反向提示,選擇聯(lián)合概率最大的生成文本: ?? 3.輕量化語(yǔ)境調(diào)優(yōu) 考慮到我們的語(yǔ)境提示引入了兩個(gè)預(yù)訓(xùn)練模型,我們使用了一種輕量化微調(diào)方法BifFit,即僅微調(diào)每個(gè)參數(shù)的bias項(xiàng),最終我們僅需要微調(diào)全量模型0.12%的參數(shù)。因此,我們?cè)趯?shí)驗(yàn)中考慮了全量微調(diào)和輕量化微調(diào)兩種場(chǎng)景。 三、實(shí)驗(yàn) 為了驗(yàn)證語(yǔ)境調(diào)優(yōu)的有效性,我們?cè)谒膫€(gè)開(kāi)放式文本數(shù)據(jù)集上進(jìn)行了測(cè)試:WritingPrompts,ROCStories,ChangeMyReivew和WikiPlots。 我們考慮了六個(gè)基線方法(其中前四個(gè)用于全量微調(diào),后兩個(gè)用于輕量化微調(diào)):

通用文本生成模型:BART,GPT-2和T5;

專為故事生成設(shè)計(jì)的方法:HINT;

輕量化方法:Prefix-tuning和Prompt tuning

同時(shí),我們使用BLEU來(lái)衡量生成文本的質(zhì)量,用Distinct來(lái)評(píng)價(jià)生成文本的多樣性。 618fbf8c-4ade-11ed-a3b6-dac502259ad0.jpg ? 實(shí)驗(yàn)結(jié)果表明我們?cè)?strong>全量微調(diào)和輕量化微調(diào)兩種場(chǎng)景下均優(yōu)于基線模型,其中輕量化模型在僅微調(diào)0.12%參數(shù)的情況下可以達(dá)到全量微調(diào)98%的表現(xiàn)。 61a4bff4-4ade-11ed-a3b6-dac502259ad0.jpg ? 消融實(shí)驗(yàn)中,我們嘗試替換語(yǔ)境提示、刪除語(yǔ)義對(duì)齊或反向提示,生成結(jié)果均有下降,這驗(yàn)證了我們語(yǔ)境提示和連續(xù)反向提示的有效性。 ? 61bf75f6-4ade-11ed-a3b6-dac502259ad0.jpg ? 人工評(píng)價(jià)表明,使用語(yǔ)境調(diào)優(yōu)生成的文本在流暢性、信息量、相關(guān)性和一致性上均優(yōu)于基線模型,且有82.83%的生成文本被認(rèn)為是人所寫(xiě)的。 ? 61dc289a-4ade-11ed-a3b6-dac502259ad0.jpg ? 四、總結(jié) 6222a612-4ade-11ed-a3b6-dac502259ad0.jpg ? 本文提出了用于自然語(yǔ)言生成的“語(yǔ)境調(diào)優(yōu)”技術(shù): ?

我們提出“語(yǔ)境提示”,增強(qiáng)生成文本的信息量;

我們使用“連續(xù)反向提示”,增強(qiáng)生成文本的相關(guān)性;

我們提出輕量化微調(diào)語(yǔ)境調(diào)優(yōu),僅微調(diào)0.12%的參數(shù)卻能保持98%的性能。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7239

    瀏覽量

    90990
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3483

    瀏覽量

    49987
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5554

    瀏覽量

    122474
  • 自然語(yǔ)言
    +關(guān)注

    關(guān)注

    1

    文章

    291

    瀏覽量

    13604

原文標(biāo)題:COLING'22 | 如何增強(qiáng)文本生成的信息量和相關(guān)性?基于語(yǔ)境提示的生成方法Context-Tuning

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語(yǔ)言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    自然語(yǔ)言處理包括哪些內(nèi)容 自然語(yǔ)言處理技術(shù)包括哪些

    Classification and Clustering):將文本按照相似性進(jìn)行分類或聚類。 信息提取(Information Extraction):從文本中提取有用的信息。 自然語(yǔ)言生成(Natural Language Generation):
    的頭像 發(fā)表于 08-03 16:22 ?8542次閱讀

    python自然語(yǔ)言

    最近,python自然語(yǔ)言是越來(lái)越火了,那么什么是自然語(yǔ)言自然語(yǔ)言(Natural Language )廣納了眾多技術(shù),對(duì)自然或人類
    發(fā)表于 05-02 13:50

    自然語(yǔ)言處理怎么最快入門?

    `本文整理自知乎上的一個(gè)問(wèn)答,分享給正在學(xué)習(xí)自然語(yǔ)言處理的朋友們!一、自然語(yǔ)言處理是什么?自然語(yǔ)言處理說(shuō)白了,就是讓機(jī)器去幫助我們完成一些語(yǔ)言
    發(fā)表于 11-28 10:02

    【推薦體驗(yàn)】騰訊云自然語(yǔ)言處理

    `相信大家對(duì)NLP自然語(yǔ)言處理的技術(shù)都不陌生,它是計(jì)算機(jī)科學(xué)領(lǐng)域和AI領(lǐng)域中的一個(gè)分支,它與計(jì)算機(jī)和人類之間使用自然語(yǔ)言進(jìn)行交互密切相關(guān),而NLP的最終目標(biāo)是使計(jì)算機(jī)能夠像人類一樣理解語(yǔ)言
    發(fā)表于 10-09 15:28

    自然語(yǔ)言處理的語(yǔ)言模型

    自然語(yǔ)言處理——53 語(yǔ)言模型(數(shù)據(jù)平滑)
    發(fā)表于 04-16 11:11

    什么是自然語(yǔ)言處理

    什么是自然語(yǔ)言處理?自然語(yǔ)言處理任務(wù)有哪些?自然語(yǔ)言處理的方法是什么?
    發(fā)表于 09-08 06:51

    自然語(yǔ)言處理怎么最快入門_自然語(yǔ)言處理知識(shí)了解

    自然語(yǔ)言處理就是實(shí)現(xiàn)人機(jī)間自然語(yǔ)言通信,實(shí)現(xiàn)自然語(yǔ)言理解和自然語(yǔ)言生成是十分困難的,造成困難的根本原因是
    發(fā)表于 12-28 17:10 ?5392次閱讀

    自然語(yǔ)言處理的概念和應(yīng)用 自然語(yǔ)言處理屬于人工智能嗎

      自然語(yǔ)言處理(Natural Language Processing)是一種人工智能技術(shù),它是研究自然語(yǔ)言與計(jì)算機(jī)之間的交互和通信的一門學(xué)科。自然語(yǔ)言處理旨在研究機(jī)器如何理解人類
    發(fā)表于 08-23 17:31 ?2064次閱讀

    什么是自然語(yǔ)言處理 (NLP)

    理解和處理自然語(yǔ)言文本,從而實(shí)現(xiàn)人機(jī)交互的流暢和自然。NLP不僅關(guān)注理論框架的建立,還側(cè)重于實(shí)際技術(shù)的開(kāi)發(fā)和應(yīng)用,廣泛應(yīng)用于法律、醫(yī)療、教育、安全、工業(yè)、金融等多個(gè)領(lǐng)域。
    的頭像 發(fā)表于 07-02 18:16 ?1796次閱讀

    自然語(yǔ)言處理包括哪些內(nèi)容

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能領(lǐng)域的一個(gè)重要分支,它涉及到計(jì)算機(jī)與人類語(yǔ)言之間的交互。NLP的目標(biāo)是讓計(jì)算機(jī)能夠理解、生成和處理人類
    的頭像 發(fā)表于 07-03 14:15 ?1691次閱讀

    自然語(yǔ)言處理是什么技術(shù)的一種應(yīng)用

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能和語(yǔ)言學(xué)領(lǐng)域的一個(gè)分支,它涉及到使用計(jì)算機(jī)技術(shù)來(lái)處理、分析和生成
    的頭像 發(fā)表于 07-03 14:18 ?1936次閱讀

    自然語(yǔ)言處理技術(shù)的核心是什么

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能領(lǐng)域的一個(gè)重要分支,其核心目標(biāo)是使計(jì)算機(jī)能夠理解、生成和處理人類語(yǔ)言。NLP技術(shù)的發(fā)展已經(jīng)取
    的頭像 發(fā)表于 07-03 14:20 ?1600次閱讀

    自然語(yǔ)言處理技術(shù)有哪些

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能領(lǐng)域的一個(gè)分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言自然語(yǔ)言處理
    的頭像 發(fā)表于 07-03 14:30 ?2083次閱讀

    使用LLM進(jìn)行自然語(yǔ)言處理的優(yōu)缺點(diǎn)

    自然語(yǔ)言處理(NLP)是人工智能和語(yǔ)言學(xué)領(lǐng)域的一個(gè)分支,它致力于使計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。大型語(yǔ)言模型(LLM)是NLP領(lǐng)域的一
    的頭像 發(fā)表于 11-08 09:27 ?1854次閱讀

    自然語(yǔ)言處理與機(jī)器學(xué)習(xí)的關(guān)系 自然語(yǔ)言處理的基本概念及步驟

    自然語(yǔ)言處理(Natural Language Processing,簡(jiǎn)稱NLP)是人工智能和語(yǔ)言學(xué)領(lǐng)域的一個(gè)分支,它致力于研究如何讓計(jì)算機(jī)能夠理解、解釋和生成人類語(yǔ)言。機(jī)器學(xué)習(xí)(Ma
    的頭像 發(fā)表于 12-05 15:21 ?1734次閱讀