女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

我們如何實現通用語言智能

DPVg_AI_era ? 來源:cc ? 2019-02-13 09:28 ? 次閱讀

DeepMind新年力作《學習和評估通用語言智能》,從全新的角度對跨任務NLP模型進行了評估,探討了要實現“通用語言智能”現如今的研究還缺失什么,以及如何實現通用語言智能。

2014年11月,那時候還沒有被廣泛認知為“深度學習教父”的Geoffrey Hinton,在國外網站Reddit回答網友提問的活動“AMA” (Ask Me Anything) 中表示,他認為未來5年最令人激動的領域,將是機器真正理解文字和視頻。

Hinton說:“5年內,如果計算機沒能做到在觀看YouTube視頻后能夠講述發生了什么,我會感到很失望。”

幸好,現在計算機已經能夠在觀看一段視頻后簡述其內容,但距離Hinton所說的“真正理解文字和視頻”,還有很遠的距離。

無獨有偶,統計機器學習大神Michael I. Jordan在2014年9月Reddit AMA中也提到,如果他有10億美金能夠組建研究項目,他會選擇構建一個NASA規模的自然語言處理 (NLP) 計劃,包括語義學、語用學等分支。

Jordan說:“從學術上講,我認為NLP是個引人入勝的問題,既讓人專注于高度結構化的推理,也觸及了‘什么是思維 (mind)’ 這一核心,還非常實用,能讓世界變得更加美好?!?/p>

一直以來,NLP/NLU (自然語言理解) 都被視為人工智能桂冠上的明珠,不僅因其意義重大,也表示著目標距我們遙不可及。

總之,NLP是個大難題。

前段時間在業內廣泛流傳的一篇“人工智障”的文章,本質上講的就是目前NLP領域的困境??v使有谷歌BERT模型所帶來的各項指標飛躍,但要讓計算機真正“理解”人類的語言,需要的恐怕不止是時間。

在最近一篇發布在Arxiv上的論文中,DeepMind的研究人員對“通用語言智能” (General Linguistic Intelligence) 做了定義,并探討了機器如何學習并實現通用語言智能。

DeepMind新年力作《學習和評估通用語言智能》

實現通用語言智能,首先需要統一的評估標準

DeepMind的研究人員從語言的角度出發,根據近來不斷發展的“通用人工智能”(AGI)的配套能力,也即能夠讓智能體與虛擬環境實現交互而發展出通用的探索、規劃和推理能力,將“通用語言智能”定義為:

能夠徹底應對各種自然語言任務的復雜性;

有效存儲和重用各種表示 (representations)、組合模塊 (combinatorial modules, 如將單詞組成短語、句子和文檔的表示),以及先前獲得的語言知識,從而避免災難性遺忘;

在從未經歷過的新環境中適應新的語言任務,即對領域轉換的魯棒性。

作者還指出,如今在NLP領域存在一種非常明顯且不好的趨勢,那就是越來越多的數據集通過眾包完成,量的確是大了,特別是在體現人類語言的“概括” (generalization) 和“抽象” (abstraction) 能力方面大打折扣,并不貼近現實中的自然分布。

此外,對于某一特定任務(比如問答),存在多個不同的數據集。因此,單獨看在某個數據集上取得的結果,很容易讓我們高估所取得的進步。

所以,要實現通用語言智能,或者說朝著這個方向發展,首先需要確定一個統一的評估標準。在本文中,為了量化現有模型適應新任務的速度,DeepMind的研究人員提出了一個基于在線前序編碼 (online prequential coding) 的新評估指標。

接下來,就讓我們看看現有的各個state-of-the-art模型性能如何。

對現有最先進模型的“五大靈魂拷問”

作者選用了兩個預訓練模型,一個基于BERT,一個基于ELMo。其中,BERT(base)擁有12個Transformer層,12個自注意力指針和768個隱藏層,這個預訓練模型中有1.1億個參數。另一個則基于ELMo(base),這個預訓練模型有將近1億個參數,300個雙向LSTM層,100個輸出層。

另有BERT/ELMo(scratch),表示沒有經過預訓練,從頭開始的模型。

首先,作者考察了需要多少與領域知識相關的訓練樣本,兩個模型才能在SQuAD閱讀理解和MNLI自然語言推理這兩個任務上取得好的表現。

縱軸F1代表在SQuAD閱讀理解數據集上的得分函數,橫軸代表訓練樣本量的對數值

答案是4萬。而且,與領域知識相關的訓練樣本量超過4萬以后,兩個模型的提升都不明顯,非要說的話,BERT模型在兩項任務中比ELMo稍好一點。

那么,改用在其他數據集上預訓練過的模型,同樣的任務性能又能提高多少呢?答案是一點點。但在代碼長度上,預訓練過的模型要顯著優于沒有經過預訓練的模型。

預訓練模型(+supervised)與非預訓練模型性能比較

作者考察的第三點是這些模型的泛化能力。實驗結果表明,在SQuAD數據集上表現最好的模型,移到其他數據集,比如Trivia、QuAC、QA-SRL、QA-ZRE后,仍然需要額外的相關訓練樣本。這個結果在意料之中,但再次凸顯了“學會一個數據集”和“學會完成一項任務”之間存在的巨大鴻溝。

在SQuAD數據集上性能最優的模型(得分超過80),在其他數據集上分數大幅降低

最后是有關學習課程 (curriculum) 和災難性遺忘的問題。模型忘記此前學會的語言知識有多快?學習課程的設計與模型的性能之間有什么影響?

(上)將在SQuAD數據集上訓練好的模型改到MNLI上;(下)將在SQuAD數據集上訓練好的模型改到TriviaQA。兩種情況模型的性能都大幅下降。

BERT模型用隨機訓練課程在各種數據集上取得的結果。實際上經過5萬次迭代后,模型就能基本完成各項任務(超過60分)。

從實驗結果看,在SQuAD數據集上訓練好的模型改到MNLI或TriviaQA這些不同數據集后,模型性能很快出現大幅下降,說明災難性遺忘發生。

雖然采用連續學習的方法,隨機初始化,5萬次迭代后,兩個模型尤其是BERT,基本上能在各個數據集上都達到差強人意的表現。

通過隨機訓練,20萬次迭代以后,BERT和ELMo在多項任務上的得分

但缺點是,這樣的隨機訓練模型在開始不需要樣本,轉換新任務以后也不需要保留此前學會的東西。因此,在連續學習的過程中,知識遷移究竟是如何發生的,目前還不得而知。

綜上,對一系列在各個不同NLP任務上取得當前最佳性能的模型進行實證評估后,DeepMind的研究人員得出結論:雖然NLP領域如今在模型設計方面取得了令人矚目的進展,而且這些模型在很多時候都能同時完成不止一項任務,但它們仍然需要大量與領域知識相關的訓練樣本 (in-domain training example),并且很容易發生災難性遺忘。

實現通用語言智能,我們還需要什么?

通過上述實驗可以發現,現有的state-of-the-art NLP模型幾乎全部都是:

擁有超大規模參數的深度學習模型;

事先以監督或非監督的的方式在訓練樣本上經過訓練;

通常包含了多個針對某項特定任務的構件以完成多項任務;

默認或者說假設某項任務的數據分布是平均的。

這種方法雖然合理,但仍舊需要大量與領域知識相關的訓練樣本,并且非常容易發生災難性遺忘。

因此,要實現通用語言智能,DeepMind研究人員在論文最后的討論中指出,我們還需要:更加復雜的遷移學習和連續學習方法 (transfer and continual learning method),能讓模型快速跨領域執行任務的記憶模塊 (memory module),訓練課程 (training curriculum) 的選擇對模型性能的影響也很重要,在生成語言模型 (generative language models) 方面的進展,也將有助于實現通用語言智能。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • DeepMind
    +關注

    關注

    0

    文章

    131

    瀏覽量

    11368
  • nlp
    nlp
    +關注

    關注

    1

    文章

    490

    瀏覽量

    22481

原文標題:DeepMind:實現通用語言智能我們還缺什么?

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    多PLC協議兼容網關實戰指南:一網打通西門子/三菱/歐姆龍

    打破協議壁壘,開啟智能工廠"通用語"時代!
    的頭像 發表于 05-21 08:43 ?108次閱讀

    Matter 智能家居的通用語言

    Matter由連接標準聯盟(CSA)創建,旨在解決智能家居的互操作性問題。Matter 基于簡單性、互操作性、可靠性和安全性四大核心原則 。 是采用基于 IP 應用層的開源協議,本質上是一種“通用語言
    發表于 05-19 15:35

    中星微發布最新一代AI芯片“星光智能五號”

    近日,在福州舉行的第八屆數字中國建設峰會上,中星微宣布其最新一代AI芯片“星光智能五號”在“數字感知芯片技術全國重點實驗室”成功運行Deepseek 7B/8B/16B大模型,成為首款全自主可控的能夠單芯片實現通用語言大模型和視
    的頭像 發表于 05-06 16:03 ?275次閱讀

    機場智能指路機器人支持那些語言

    指路機器人作為提升旅客出行體驗的關鍵一環,其支持的語言種類成為衡量服務質量的重要指標。那么,這些叁仟智能指路機器人究竟能夠跨越多少語言的界限,為旅客提供精準、便捷的服務呢?接下來,我們
    的頭像 發表于 04-07 10:49 ?165次閱讀

    為工業通信架起一座高效、穩定的橋梁!疆鴻智能Ethercat轉TCP/IP解決方案應運而生!

    通用語言。二者的融合意味著: ? 實時控制與遠程監控兼得:車間設備數據直通云端,打破控制層與信息層的壁壘。 ? 跨系統集成更簡單:PLC、傳感器、機器人等EtherCAT設備輕松接入SCADA、MES
    發表于 03-31 15:32

    通用Matter over thread 模組

    PTR5415是一款通用Matter over thread 模組,它支持接入蘋果等matter over thread 生態,實現基于matter over thread的連接和控制,可以用來實現
    發表于 03-26 14:42

    蔡司工業測量自動化遇上OPC UA:開啟智能制造新篇章

    工業通信的 “通用語言”——OPC UA ? 在工業自動化的復雜網絡中,不同設備和系統之間的通信順暢與否,直接決定了生產效率與管理效能。而? OPC UA ,即開放式平臺通信統一架構(Open
    發表于 02-21 17:50 ?182次閱讀

    編程語言在人工智能中的使用

    。編程語言在AI的發展中扮演著至關重要的角色,它們為開發人員提供了構建和實現智能系統的工具和框架。 1. Python Python是人工智能領域最受歡迎的編程
    的頭像 發表于 11-15 09:34 ?861次閱讀

    使用C語言實現函數模板

      用C語言能不能實現一個通用的函數,既能完成整數的相加,又能完成浮點數的相加?
    的頭像 發表于 11-09 11:38 ?847次閱讀

    鴻蒙原生應用元服務開發-初識倉頡開發語言

    倉頡編程語言是一種面向全場景應用開發的通用編程語言,可以兼顧開發效率和運行性能,并提供良好的編程體驗,主要具有如下特點: 語法簡明高效 :倉頡編程語言提供了一系列簡明高效的語法,旨在減
    發表于 08-15 10:00

    鴻蒙原生應用元服務開發-初識倉頡開發語言

    倉頡編程語言是一種面向全場景應用開發的通用編程語言,可以兼顧開發效率和運行性能,并提供良好的編程體驗,主要具有如下特點: 語法簡明高效 :倉頡編程語言提供了一系列簡明高效的語法,旨在減
    發表于 07-30 17:49

    【《大語言模型應用指南》閱讀體驗】+ 俯瞰全書

    的機會! 本人曾經也參與過語音識別產品的開發,包括在線和離線識別,但僅是應用語言模型實現端側的應用開發,相當于調用模型的接口函數,實際對模型的設計、訓練和運行機理并不了解,我想通過學習《大語言模型
    發表于 07-21 13:35

    語言模型的預訓練

    隨著人工智能技術的飛速發展,自然語言處理(NLP)作為人工智能領域的一個重要分支,取得了顯著的進步。其中,大語言模型(Large Language Model, LLM)憑借其強大的
    的頭像 發表于 07-11 10:11 ?881次閱讀

    nlp神經語言和NLP自然語言的區別和聯系

    來改變我們的行為和情感。NLP的目標是幫助人們實現自我改進,提高溝通技巧,增強領導力和解決問題的能力。 NLP的主要組成部分包括: 感知:了解我們如何接收和處理信息。 語言:研究
    的頭像 發表于 07-09 10:35 ?1099次閱讀

    大模型應用之路:從提示詞到通用人工智能(AGI)

    鋪平道路。 基于AI大模型的推理功能,結合了RAG(檢索增強生成)、智能體(Agent)、知識庫、向量數據庫、知識圖譜等先進技術,我們實現真正的AGI(通用人工智能)邁出了重要步伐。
    的頭像 發表于 06-14 10:20 ?2812次閱讀
    大模型應用之路:從提示詞到<b class='flag-5'>通用人工智能</b>(AGI)