女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何利用大規(guī)模語言模型將自然語言問題轉(zhuǎn)化為SQL語句?

深度學(xué)習(xí)自然語言處理 ? 來源:NLP日志 ? 2023-03-22 11:48 ? 次閱讀

1 簡介?????????

有的工作嘗試引出中間推理步驟,通過將復(fù)雜問題顯示分解為多個子問題,從而以分而治之的方式來解決??紤]到組合泛化對于語言模型有一定的挑戰(zhàn),這種遞歸方法的對于復(fù)雜任務(wù)特定有用。根據(jù)解決子問題的方式可以分為串行跟并行兩種,串行的方式每個子問題相互依賴,前面子問題的答案會加入到后續(xù)子問題的prompt中,生成后續(xù)子問題的答案,而并行的方式則各個子問題的答案生成是獨立的,最后再將多個子問題的答案融合到一起。

2 并行式?????????

DECOMPRC

在閱讀理解場景下,多跳閱讀理解要求從眾多段落中進(jìn)行推理跟歸納。于是出現(xiàn)了新的方案DECOMPRC,將多跳閱讀理解問題分解成多個相對簡單的子問題(現(xiàn)有閱讀理解模型可以回復(fù)),從而提高閱讀理解準(zhǔn)確性。

59437718-c862-11ed-bfe3-dac502259ad0.png

圖1:DECOMPRC示例

整個方案分為三個部分

a)將原始的多跳閱讀理解問題分解為多個單跳子問題??梢愿鶕?jù)多個不同的推理類型得到多種分解方式,這里需要根據(jù)不同推理類型分別訓(xùn)練多個用于問題分解的模型,對于每個分解模型,采用Point的方式,利用BERT對原問題進(jìn)行預(yù)測,得到幾個關(guān)鍵位置,利用關(guān)鍵位置原文本進(jìn)行劃分,再加上一些規(guī)則手段,就可以得到對應(yīng)的子問題了。例如預(yù)測出一個中間位置,就可以將原問題分割成兩部分,第一部分作為第一個子問題,第二部分作為第二個子問題,考慮到第二部分可能都是陳述句,就將前面的詞轉(zhuǎn)換成which。這里將分解模型簡化為一個span prediction問題,只需要400個訓(xùn)練數(shù)據(jù)就得到很不錯的效果了。

b)在第一步會產(chǎn)生多種問題分解方式,對于每一種分解方式,利用單跳閱讀理解模型回復(fù)每個子問題,然后根據(jù)不同分分解類型的特性得到最終的答案。

c)對于每一種分解方式,將原問題,分解類型,該分解方式下的問題跟對應(yīng)答案一同作為模型輸入,預(yù)測哪種分解方式對應(yīng)的結(jié)果最合理,將該分解方式下的答案作為多跳閱讀理解問題的答案。

整個流程可以簡單理解為,系統(tǒng)提供了幾種將多跳問題分解為子問題的方式,分別計算每個分解方式的合理性,再選擇其中最優(yōu)的分解方式對應(yīng)的答案作為原問題最終答案。

QA

在QA場景下,通過將復(fù)雜問題分解為相對簡單的子問題(QA模型可以回復(fù)),從而提高問答的效果。具體到多跳QA問題上,現(xiàn)將復(fù)雜問題分解為多個子問題,利用單跳QA模型生成全部子問題的答案并融合到一起作為復(fù)雜問題的答案。

5a281f8a-c862-11ed-bfe3-dac502259ad0.png

圖2: QA場景下的recursive prompting方案示例?

整個系統(tǒng)分為三個部分

a)無監(jiān)督問題分解,將原問題分解為多個相對簡單的子問題。這里需要訓(xùn)練一個分解模型,用于將復(fù)雜問題分解成多個子問題。由于這個任務(wù)下的監(jiān)督訓(xùn)練數(shù)據(jù)構(gòu)造成本高昂,于是提出了一種無監(jiān)督的訓(xùn)練數(shù)據(jù)構(gòu)造方式,對于每一個復(fù)雜問題q,從語料集Q中檢索召回得到N個對應(yīng)的簡單問題s作為q的子問題,N的取值可以依賴于具體任務(wù)或者具體問題。我們希望這些簡單問題在某些方面跟q足夠相似,同時這些簡單問題s之間有明顯差異。從而構(gòu)造出復(fù)雜問題跟子問題序列之間的偽pair對(q, [s1,…sN]),用于訓(xùn)練分解模型。

5a77a01e-c862-11ed-bfe3-dac502259ad0.png

b)生成子問題回復(fù),利用現(xiàn)有的QA模型,去生成各個子問題的回復(fù)。這里不對QA模型有太多限制,只要它能正確回復(fù)語料庫S中的簡單問題即可,所以盡量采用在S中效果優(yōu)異的QA模型。

c)生成復(fù)雜問題回復(fù),將復(fù)雜問題,各個子問題跟對應(yīng)回復(fù)一同作為QA模型的輸入,生成復(fù)雜問題的回復(fù)。這里的QA模型可以采用跟第二步一樣的模型,只要將輸入做對應(yīng)調(diào)整即可。

5a95a370-c862-11ed-bfe3-dac502259ad0.png

圖3: QA場景下的recursive prompting方案示例

5ae945ac-c862-11ed-bfe3-dac502259ad0.png

圖4: 實驗結(jié)果對比

從實驗效果上可以明顯看出這些問題分解的方式能夠顯著提升模型效果。

串行式

SEQZERO

如何利用大規(guī)模語言模型將自然語言問題轉(zhuǎn)化為SQL語句?SEQZERO就是一種解法。由于SQL這種規(guī)范語言的復(fù)合結(jié)構(gòu),SQL語句很多情況下會顯得復(fù)雜且冗長,要讓語言模型學(xué)會生草本跟SQL語言需要大量訓(xùn)練數(shù)據(jù),于是出現(xiàn)了一種基于few-shot的方法SEQZERO。

一個SQL語句包括多個部分,例如From **,SELCT **, WHERE **,只要能從自然語言問題中提出這幾個部分對應(yīng)的元素,然后通過規(guī)則可以轉(zhuǎn)化為對應(yīng)的SQL語句。于是SEQZERO的做法就是先利用語言模型預(yù)測得到其中一個元素,將該元素加入到原問題中生成下個元素,重復(fù)此操作直到生成全部元素,然后通過規(guī)則將所有結(jié)果組合起來的就得到對應(yīng)的SQL語句。在預(yù)測每個元素的過程中,為了得到更加強大的泛化能力,采用了few-shot跟zero-shot的集成策略。

5b1801f8-c862-11ed-bfe3-dac502259ad0.png

圖5: SEQZERO示例

Least-to-most

雖然chain-of-thought prompting在很多自然語言推理任務(wù)有顯著效果,但是當(dāng)問題比prompt里的示例更難時,它的表現(xiàn)會很糟糕。舉個例子,比如任務(wù)抽取文本每個單詞最后一個字母,prompt的示例輸入是3個單詞,輸入相對較短,但是問題的長度卻是10個單詞,這種情況下chain-of-thought prompting的策略就會失效。于是提出了Least-to-most,通過兩階段的prompting來解決這種問題,第一階段通過prompting將原問題分解為一系列子問題,第二階段則是通過prompting依次解決子問題,前面子問題的問題跟答案會加入到候選子問題的模型輸入中去,方便語言模型更好地回復(fù)候選子問題。由于這兩個階段任務(wù)有所區(qū)別,對應(yīng)的prompt內(nèi)容也不同。

5b812296-c862-11ed-bfe3-dac502259ad0.png

圖6: Least-to-most示例

4 其他

Successive prompting

前面幾種方法都是一開始就將問題分解為多個子問題,然后在通過串行或者并行的方式回復(fù)所有子問題,而successive prompting則是每次分解出一個子問題,讓語言模型去回復(fù)該子問題,再將該子問題以及對應(yīng)答案加入到模型輸入種,進(jìn)而分解出下一個子問題,重復(fù)這個過程直到?jīng)]有新的子問題生成,那么最后一個子問題的答案就是原問題的答案。

5b9d881e-c862-11ed-bfe3-dac502259ad0.png

圖7: successive prompting示例

5 總結(jié)???????????????

Recursive prompting這種思路其實蠻好理解的,目前大規(guī)模語言模型處理這些簡單任務(wù)效果是很不錯的,但是復(fù)雜問題就比較糟糕了,一方面構(gòu)造這些復(fù)雜問題相關(guān)數(shù)據(jù)的工作很艱巨,另一方面直接讓語言模型在這些復(fù)雜問題數(shù)據(jù)上訓(xùn)練效果也很一般(想想為什么有些數(shù)據(jù)集上sota指標(biāo)也很低)。但是讓語言模型學(xué)會根據(jù)具體問題進(jìn)行拆解,通過將復(fù)雜問題分解為相對簡單的子問題,采用分而治之的方式,再將子問題答案匯總,不就得到原問題的答案了嘛。這也跟我們?nèi)祟惖男袨槟J礁咏咏瑢τ趶?fù)雜任務(wù),我們會通過合理規(guī)劃將其劃分為具體多個子任務(wù),然后再去一一解決這些子任務(wù)。想想中華民族偉大復(fù)興的道路,不也是通過一個又一個的五年計劃逐步向前推進(jìn)的嘛。






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • SQL
    SQL
    +關(guān)注

    關(guān)注

    1

    文章

    780

    瀏覽量

    44769
  • 語言模型
    +關(guān)注

    關(guān)注

    0

    文章

    558

    瀏覽量

    10641
  • SQL語句
    +關(guān)注

    關(guān)注

    0

    文章

    19

    瀏覽量

    7146

原文標(biāo)題:增強語言模型之Recursive prompting

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    名單公布!【書籍評測活動NO.30】大規(guī)模語言模型:從理論到實踐

    評測資格! 2022年11月,ChatGPT的問世展示了大模型的強大潛能,對人工智能領(lǐng)域有重大意義,并對自然語言處理研究產(chǎn)生了深遠(yuǎn)影響,引發(fā)了大模型研究的熱潮。 距ChatGPT問世不到一年,截至
    發(fā)表于 03-11 15:16

    【大語言模型:原理與工程實踐】揭開大語言模型的面紗

    語言模型(LLM)是人工智能領(lǐng)域的尖端技術(shù),憑借龐大的參數(shù)量和卓越的語言理解能力贏得了廣泛關(guān)注。它基于深度學(xué)習(xí),利用神經(jīng)網(wǎng)絡(luò)框架來理解和生成自然語
    發(fā)表于 05-04 23:55

    【大語言模型:原理與工程實踐】大語言模型的基礎(chǔ)技術(shù)

    處理各種自然語言任務(wù)時都表現(xiàn)出了驚人的能力。這促使一個新的研究方向誕生——基于Transformer 的預(yù)訓(xùn)練語言模型。這類模型的核心思想是先利用
    發(fā)表于 05-05 12:17

    python自然語言

    最近,python自然語言是越來越火了,那么什么是自然語言。自然語言(Natural Language )廣納了眾多技術(shù),對自然或人類語言進(jìn)
    發(fā)表于 05-02 13:50

    自然語言處理怎么最快入門?

    問答等等。我們?nèi)粘鼍爸斜容^常見到的類似Siri、微軟小冰之類的,這些的基礎(chǔ)都是自然語言處理,另外還有一些語音處理,這就暫且不表了??傊憧吹降臋C器與人利用語言交互,用機器模擬人腦閱讀,對話,評論等等這些
    發(fā)表于 11-28 10:02

    關(guān)于自然語言處理之54 語言模型(自適應(yīng))

    自然語言處理——54 語言模型(自適應(yīng))
    發(fā)表于 04-09 08:20

    自然語言處理的語言模型

    自然語言處理——53 語言模型(數(shù)據(jù)平滑)
    發(fā)表于 04-16 11:11

    什么是自然語言處理

    什么是自然語言處理?自然語言處理任務(wù)有哪些?自然語言處理的方法是什么?
    發(fā)表于 09-08 06:51

    嵌入式SQL語句與主語言之間的通信

    SQL嵌入到高級語言中混合編程,程序中會含有兩種不同計算模型語句SQL語句高級
    發(fā)表于 12-22 07:44

    自然語言處理常用模型解析

    自然語言處理常用模型使用方法一、N元模型二、馬爾可夫模型以及隱馬爾可夫模型及目前常用的自然語言
    發(fā)表于 12-28 15:42 ?6140次閱讀
    <b class='flag-5'>自然語言</b>處理常用<b class='flag-5'>模型</b>解析

    自然語言處理怎么最快入門_自然語言處理知識了解

    自然語言處理就是實現(xiàn)人機間自然語言通信,實現(xiàn)自然語言理解和自然語言生成是十分困難的,造成困難的根本原因是自然語言文本和對話的各個層次上廣泛存
    發(fā)表于 12-28 17:10 ?5385次閱讀

    基于自然語言生成多表SQL語句模板填充的方法

    自然語言生成SαL查詢不僅是構(gòu)建智能數(shù)據(jù)庫查詢系統(tǒng)的一個重要鉏成部分,亦是新型供電軌道交通系統(tǒng)混合時態(tài)大數(shù)據(jù)個性化運維的難點之一。目前利用深度學(xué)習(xí)模型的方法專注于數(shù)據(jù)庫中單表SQL查詢
    發(fā)表于 04-09 16:32 ?40次下載
    基于<b class='flag-5'>自然語言</b>生成多表<b class='flag-5'>SQL</b><b class='flag-5'>語句</b>模板填充的方法

    自然語言和ChatGPT的大模型調(diào)教攻略

    指令調(diào)整(Instruction Tuning)將多種任務(wù)轉(zhuǎn)化自然語言表述的形式,再通過seq2seq的監(jiān)督學(xué)習(xí)+多任務(wù)學(xué)習(xí)的方式調(diào)整大規(guī)模語言
    發(fā)表于 04-24 10:28 ?1123次閱讀
    <b class='flag-5'>自然語言</b>和ChatGPT的大<b class='flag-5'>模型</b>調(diào)教攻略

    自然語言處理的概念和應(yīng)用 自然語言處理屬于人工智能嗎

      自然語言處理(Natural Language Processing)是一種人工智能技術(shù),它是研究自然語言與計算機之間的交互和通信的一門學(xué)科。自然語言處理旨在研究機器如何理解人類語言
    發(fā)表于 08-23 17:31 ?2025次閱讀

    大規(guī)模語言模型的基本概念、發(fā)展歷程和構(gòu)建流程

    大規(guī)模語言模型(Large Language Models,LLM),也稱大規(guī)模語言模型或大型
    的頭像 發(fā)表于 12-07 11:40 ?5284次閱讀
    <b class='flag-5'>大規(guī)模</b><b class='flag-5'>語言</b><b class='flag-5'>模型</b>的基本概念、發(fā)展歷程和構(gòu)建流程