女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

SDNet成為目前世界上唯一在CoQA領(lǐng)域內(nèi)數(shù)據(jù)集上F1得分超過80%的模型,達(dá)到80.7%

DPVg_AI_era ? 來源:lq ? 2018-12-18 09:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

微軟語音與對話研究團(tuán)隊(duì)開發(fā)的SDNet,在面向公共數(shù)據(jù)集CoQA的問答對話系統(tǒng)模型性能挑戰(zhàn)賽中刷新最佳性能紀(jì)錄,成功奪冠!SDNet成為目前世界上唯一在CoQA領(lǐng)域內(nèi)數(shù)據(jù)集上F1得分超過80%的模型,達(dá)到80.7%。

近日,微軟語音與對話研究團(tuán)隊(duì)在斯坦福機(jī)器對話式問答數(shù)據(jù)挑戰(zhàn)賽CoQA Challenge中奪冠,并且單模型和集成模型分別位列第二和第一,讓機(jī)器閱讀理解向著人類水平又靠近了一步。

這也是繼語音識別、機(jī)器翻譯等成果之后,微軟取得的又一項(xiàng)好成績。

微軟研究人員將自注意力模型和外部注意力相結(jié)合,并且用新的方法整合了谷歌BERT語境模型,構(gòu)建了一個(gè)基于注意力的會話式問答深度神經(jīng)網(wǎng)絡(luò)SDNet,更有效地理解文本和對話歷史。

一直以來,微軟研究人員都有在機(jī)器閱讀理解中使用自注意力模型加外部注意力的想法,終于在這項(xiàng)工作中首次得以實(shí)現(xiàn)。

CoQA競賽:更接近人類對話的機(jī)器問答挑戰(zhàn)賽

CoQA是面向建立對話式問答系統(tǒng)的大型數(shù)據(jù)集,CoQA挑戰(zhàn)的目標(biāo)是衡量機(jī)器對文本的理解能力,以及機(jī)器面向?qū)υ捴谐霈F(xiàn)的彼此相關(guān)的問題的回答能力的高低(CoQA的發(fā)音是“扣卡”)

CoQA包含12.7萬個(gè)問題和答案,這些內(nèi)容是從8000多個(gè)對話中收集而來的。每組對話都是通過眾籌方式,以真人問答的形式在聊天中獲取的。

CoQA的獨(dú)特之處在于:

數(shù)據(jù)集中的問題是對話式的

答案可以是自由格式的文本

每個(gè)答案還附有對話段落中相應(yīng)答案的理由

這些問題收集自七個(gè)不同的領(lǐng)域

CoQA 數(shù)據(jù)集旨在體現(xiàn)人類對話中的特質(zhì),追求答案的自然性和問答系統(tǒng)的魯棒性。在CoQA 中,答案沒有固定的格式,在問題中頻繁出現(xiàn)指代詞,而且有專門用于跨領(lǐng)域測試的數(shù)據(jù)集。

CoQA具備了許多現(xiàn)有閱讀理解數(shù)據(jù)集中不存在的挑戰(zhàn),比如共用參照和實(shí)用推理等。因此,CoQA Challenge 也更能反映人類真實(shí)對話的場景。

CoQA 與 SQuAD 兩個(gè)數(shù)據(jù)集對比:SQuAD 中約一半都是what型,CoAQ種類更多;SQuAD中沒有共識推斷,CoQA幾乎每組對話都需要進(jìn)行上下文理解推斷;SQuAD中所有答案均可從原文本中提取,CoQA中這一比例僅為66.8%。

此前,斯坦福大學(xué)的自然語言處理小組已經(jīng)先后發(fā)表了 SQuAD 和 SQuAD2.0 數(shù)據(jù)集。該數(shù)據(jù)集包含一系列文本和基于文本的問題、答案。針對該數(shù)據(jù)集提出的任務(wù)要求系統(tǒng)閱讀文本后判斷該問題是否可以從文本中得出答案,如果可以回答則從文本中截取某一片段做出回答。

目前,微軟語音與對話研究已經(jīng)把他們在CoQA Challenge上奪冠成果的預(yù)印本論文發(fā)在了Arxiv上。下面結(jié)合論文內(nèi)容,對該團(tuán)隊(duì)的實(shí)驗(yàn)方法和研究成果做簡單介紹。

結(jié)合自注意力模型和外部注意力,更有效理解文本和對話歷史

在本文中,我們提出了SDNet,一種基于語境注意力的會話問答的深度神經(jīng)網(wǎng)絡(luò)。我們的網(wǎng)絡(luò)源于機(jī)器閱讀理解模型,但具備幾個(gè)獨(dú)特的特征,來解決面向?qū)υ挼那榫忱斫鈫栴}。

首先,我們在對話和問題中同時(shí)應(yīng)用注意力和自我注意機(jī)制,更有效地理解文章和對話的歷史。其次,SDNet利用了NLP領(lǐng)域的最新突破性成果:比如BERT上下文嵌入Devlin等。

我們采用了BERT層輸出的加權(quán)和,以及鎖定的BERT參數(shù)。我們在前幾輪問題和答案之前加上了當(dāng)前問題,以納入背景信息。結(jié)果表明,每個(gè)部分都實(shí)現(xiàn)了顯著提高了預(yù)測準(zhǔn)確性的作用。

我們在CoQA數(shù)據(jù)集上對SDNet進(jìn)行了評估,結(jié)果在全局F1得分方面,比之前最先進(jìn)模型結(jié)果表現(xiàn)提升了1.6%(從75.0%至76.6%)。整體模型進(jìn)一步將F1得分提升至79.3%。此外,SDNet是有史以來第一個(gè)在CoQA的領(lǐng)域內(nèi)數(shù)據(jù)集上表現(xiàn)超過80%的模型。

實(shí)驗(yàn)方法與衡量指標(biāo)

我們在CoQA 上評估了我們的模型。在CoQA中,許多問題的答案需要理解之前的問題和答案,這對傳統(tǒng)的機(jī)器閱讀模型提出了挑戰(zhàn)。表1總結(jié)了CoQA中的領(lǐng)域分布。如圖所示,CoQA包含來自多個(gè)領(lǐng)域的段落,并且每個(gè)段落的平均問答超過15個(gè)。許多問題需要上下文的理解才能生成正確答案。

對于每個(gè)域內(nèi)數(shù)據(jù)集,開發(fā)集中有100個(gè)段落,測試集中有100個(gè)段落。其余的域內(nèi)數(shù)據(jù)集位于訓(xùn)練集中。測試集還包括所有域外段落。

基線模型和指標(biāo)

我們將SDNet與以下基線模型進(jìn)行了比較:PGNet(具有復(fù)制機(jī)制的Seq2Seq)、DrQA、DrQA +PGNet、BiDAF ++ Yatskar(2018)和FlowQA Huang等。 (2018)。與官方排行榜一致,我們使用F1作為評估指標(biāo),F(xiàn)1是在預(yù)測答案和基本事實(shí)之間的單詞級別的精度上的調(diào)和平均。

結(jié)果

上表所示為SDNet和基線模型的性能對比。如圖所示,使用SDNet的實(shí)現(xiàn)結(jié)果明顯好于基線模型。具體而言,與先前的CoQA FlowQA模型相比,單個(gè)SDNet模型將整體F1得分提高了1.6%。 Ensemble SDNet模型進(jìn)一步將整體F1得分提升了2.7%,SDNet是有史以來第一個(gè)在CoQA的領(lǐng)域內(nèi)數(shù)據(jù)集上表現(xiàn)超過80%的模型(80.7%)。

上圖所示為開發(fā)集隨epoch變化的F1得分情況。SDNet在第二個(gè)epoch之后的表現(xiàn)超越了兩個(gè)基線模型,并且僅在8個(gè)epoch后就實(shí)現(xiàn)了最優(yōu)秀的表現(xiàn)。

消融研究 (Ablation)

我們對SDNet模型進(jìn)行了消融研究,結(jié)果在上表中顯示。結(jié)果表明,正確使用上下文嵌入BERT是至關(guān)重要的。雖然移除BERT會使開發(fā)集的F1得分降低6.4%,但在未鎖定內(nèi)部權(quán)重的情況下加入BERT會使得F1得分降低13%。

上下文歷史

在SDNet中,我們將當(dāng)前問題與前N輪問題和真實(shí)答案前置一致,來利用對話歷史記錄。我們試驗(yàn)了不同的N值的效果,并在表4中列出了結(jié)果。試驗(yàn)顯示,我們的模型的性能對N的設(shè)置不是非常敏感。最后,我們的最終模型設(shè)置N = 2。

未來:讓模型更接近于真人對話場景

我們提出了一種新的基于情境注意的深度神經(jīng)網(wǎng)絡(luò)SDNet,以解決對話問題的回答任務(wù)。通過在通過和對話歷史上利用注意力和自我關(guān)注,該模型能夠理解對話流并將其與消化段落內(nèi)容融合在一起。

此外,我們?nèi)谌肓俗匀徽Z言處理領(lǐng)域 BERT的最新突破,并以創(chuàng)新的方式利用它。與以前的方法相比,SDNet取得了卓越的成果。在公共數(shù)據(jù)集CoQA上,SDNet在整體F1指標(biāo)得分上的表現(xiàn)比之前最先進(jìn)的模型高1.6%。

縱觀CoQA Challenge排行榜,從今年8月21日到11月29日,短短3個(gè)月時(shí)間里,機(jī)器問答對話的總體成績就從52.6提升到79.3,距離人類水平88.8似乎指日可待。

“最后一公里往往是最難的,很難預(yù)測機(jī)器能否達(dá)到人類水平。”論文作者之一、微軟全球技術(shù)Fellow、負(fù)責(zé)微軟語音、自然語言和機(jī)器翻譯工作的黃學(xué)東博士告訴新智元。

未來,他們打算將SDNet模型應(yīng)用于具有大型語料庫或知識庫的開放域中,解決多循環(huán)問答問題,這類問題中,目標(biāo)段落可能是無法直接獲得的。這和人類世界中的問答的實(shí)際情況可能更為接近。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6685

    瀏覽量

    105742
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103575
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1224

    瀏覽量

    25445

原文標(biāo)題:微軟創(chuàng)CoQA挑戰(zhàn)新紀(jì)錄,最接近人類水平的NLP系統(tǒng)誕生

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    F1宣布與聯(lián)想集團(tuán)深化合作

    包括F1在內(nèi)的體育賽事不僅是速度、體能的較量,更是尖端技術(shù)的極限測試場。置身于F1爭分奪秒的嚴(yán)苛環(huán)境,其背后的設(shè)備能力與澎湃算力也迎來了另場“競速”,而我們,實(shí)戰(zhàn)中經(jīng)受住了這場考驗(yàn)
    的頭像 發(fā)表于 07-07 11:12 ?366次閱讀

    F1?與亞馬遜云科技聯(lián)合推出全新在線體驗(yàn) 車迷可親手打造專屬賽道

    北京 ——2025 年 5 月 22 日 世界級方程式錦標(biāo)賽?(以下簡稱:F1?)在其成立75周年之際,與亞馬遜云科技聯(lián)合推出了全新數(shù)字互動(dòng)體驗(yàn),使其車迷可自主創(chuàng)建、定制并分享其專屬F1
    發(fā)表于 05-22 11:40 ?1257次閱讀

    AD7768與STM32F407進(jìn)行數(shù)據(jù)通信,SPI1讀取到的數(shù)據(jù)不完整,整體數(shù)據(jù)字節(jié)出現(xiàn)偏移,怎么解決?

    進(jìn)行數(shù)據(jù)通信,我們采用所有數(shù)據(jù)都在DOUT0輸出的模式。 然后使用DRDY信息來進(jìn)行數(shù)據(jù)中斷觸發(fā)。 但是目前存在問題:SPI
    發(fā)表于 04-24 06:40

    聯(lián)想AI技術(shù)助力F1中國大獎(jiǎng)賽

    很少有人關(guān)注到,極速競技背后還有另個(gè)賽場,15億人能即時(shí)收看的F1藏了多少聯(lián)想黑科技?
    的頭像 發(fā)表于 03-26 10:18 ?515次閱讀
    聯(lián)想AI技術(shù)助力<b class='flag-5'>F1</b>中國大獎(jiǎng)賽

    NVIDIA推出開源物理AI數(shù)據(jù)

    標(biāo)準(zhǔn)化合成數(shù)據(jù)的初始版本預(yù)計(jì)將成為世界上最大的此類數(shù)據(jù)目前已作為開源版本提供給機(jī)器人開發(fā)人員
    的頭像 發(fā)表于 03-24 17:52 ?613次閱讀

    RK3588開發(fā)板上部署DeepSeek-R1模型的完整指南

    板端即可執(zhí)行,這樣就可以OK3588-C開發(fā)板的調(diào)試串口上和DeepSeek-R1對話了,而且無需聯(lián)網(wǎng)。 二、效果展示 DeepSeek-R1款多功能的人工智能助手,它在多個(gè)
    發(fā)表于 02-27 16:45

    DLPC410的datasheet寫明1bit的刷新率可以達(dá)到32KHz,目前的EVM可以實(shí)現(xiàn)嗎?

    1. DLPC410的datasheet寫明1bit的刷新率可以達(dá)到32KHz,目前的EVM
    發(fā)表于 02-21 10:23

    請問有沒有不在linux對.pt模型向.kmodel轉(zhuǎn)換的教程呢?

    的文章 但是里面很多參數(shù)以及.npy的數(shù)據(jù)我不知道怎么填寫及處理。 2、還有個(gè)問題,現(xiàn)在yolo有個(gè)obb模塊可以檢測物體的傾斜角度,請問用這個(gè)模塊訓(xùn)練出來的
    發(fā)表于 02-08 08:56

    GaNSafe–世界上最安全的GaN功率半導(dǎo)體

    電子發(fā)燒友網(wǎng)站提供《GaNSafe–世界上最安全的GaN功率半導(dǎo)體.pdf》資料免費(fèi)下載
    發(fā)表于 01-24 13:50 ?0次下載
    GaNSafe–<b class='flag-5'>世界上</b>最安全的GaN功率半導(dǎo)體

    依托新的全球數(shù)據(jù)識別人工智能領(lǐng)域輪涌現(xiàn)的杰出女性

    全球人工智能和數(shù)據(jù)崗位中僅占比25%,全球科學(xué)家當(dāng)中占比不到30%。 Zeki是唯一在全球范圍內(nèi)識別未被挖掘、缺乏充分代表和被低估的女性
    的頭像 發(fā)表于 01-19 09:39 ?336次閱讀

    世界上最貴的錫膏-金錫(Au80Sn20)

    獨(dú)特的性能和稀缺性而備受矚目。作為世界上最貴的錫膏之,金錫合金錫膏高端電子產(chǎn)品的制造中扮演著重要角色。金錫的應(yīng)用金錫焊料的熔點(diǎn)為280℃,具有優(yōu)異的導(dǎo)熱、導(dǎo)電性
    的頭像 發(fā)表于 12-16 11:00 ?1134次閱讀
    <b class='flag-5'>世界上</b>最貴的錫膏-金錫(Au<b class='flag-5'>80</b>Sn20)

    助力AIoT應(yīng)用:米爾FPGA開發(fā)板實(shí)現(xiàn)Tiny YOLO V4

    量和內(nèi)存占用) 三、 獲取數(shù)據(jù)模型可下載開源訓(xùn)練或預(yù)訓(xùn)練模型。為了確保兼容性,建議將模型轉(zhuǎn)
    發(fā)表于 12-06 17:18

    激光軟釬焊技術(shù):SMT領(lǐng)域內(nèi)的現(xiàn)狀與未來發(fā)展趨勢(

    激光軟釬焊技術(shù)正成為SMT領(lǐng)域項(xiàng)關(guān)鍵技術(shù),它通過使用激光作為熱源,實(shí)現(xiàn)了對電子元件的精密焊接。這項(xiàng)技術(shù)以其非接觸式加熱、熱影響區(qū)小、快速加熱與冷卻等優(yōu)勢,特別適合于微小空間和復(fù)雜立體產(chǎn)品的焊接
    的頭像 發(fā)表于 09-29 13:57 ?869次閱讀
    激光軟釬焊技術(shù):SMT<b class='flag-5'>領(lǐng)域內(nèi)</b>的現(xiàn)狀與未來發(fā)展趨勢(<b class='flag-5'>上</b>)

    英特爾酷睿Ultra7處理器優(yōu)化和部署Phi-3-min模型

    (例如,phi-3-miniMMLU測試中達(dá)到了69%的準(zhǔn)確率,MT-bench得分為8.38)。
    的頭像 發(fā)表于 08-30 16:58 ?1364次閱讀
    <b class='flag-5'>在</b>英特爾酷睿Ultra7處理器<b class='flag-5'>上</b>優(yōu)化和部署Phi-3-min<b class='flag-5'>模型</b>

    chatglm2-6bP40做LORA微調(diào)

    背景: 目前,大模型的技術(shù)應(yīng)用已經(jīng)遍地開花。最快的應(yīng)用方式無非是利用自有垂直領(lǐng)域數(shù)據(jù)進(jìn)行模型微調(diào)。chatglm2-6b
    的頭像 發(fā)表于 08-13 17:12 ?844次閱讀
    chatglm2-6b<b class='flag-5'>在</b>P40<b class='flag-5'>上</b>做LORA微調(diào)