女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

度曉曉1秒1篇高考作文,都是因為預訓練大模型

Carol Li ? 來源:電子發燒友網 ? 作者:李彎彎 ? 2022-06-10 00:02 ? 次閱讀

電子發燒友網報道(文/李彎彎)6月7日,百度推出的數字人度曉曉作答了全國新高考Ⅰ卷題為《本手、妙手、俗手》議論文,40秒就根據題目創作了40多篇文章,平均1秒生成1篇,隨機抽取其中一篇,其分數趕超約75%高考考生。


而這得益于文心大模型最新發布的融合任務相關知識的千億大模型ERNIE 3.0 Zeus,該模型在學習海量數據和知識的基礎上,進一步學習百余種不同形式的任務知識,增強了模型的效果,在各類NLP任務上表現出了更強的零樣本和小樣本學習能力。

基于文心大模型的智能創作

大模型是人工智能大基礎設施的重要組成,“文心大模型”是百度近幾年在花大力氣投入研發的技術基礎設施。自2019年開始,百度深耕預訓練模型研發,并在該年3月率先發布中國首個正式開放的預訓練模型ERNIE1.0。

去年12月,百度聯合鵬城實驗室發布了鵬城-百度·文心大模型,這是全球首個知識增強千億大模型,也目前全球最大中文單體模型,參數規模達到2600億。

在今年5月20日的WAVE SUMMIT 2022深度學習開發者峰會上,文心大模型一次性發布10個新的大模型,涵蓋基礎大模型、任務大模型和行業大模型三級體系,其中就包括融合任務相關知識的千億NLP大模型ERNIE 3.0 Zeus。

千億規模參數的NLP基礎大模型ERNIE 3.0 Zeus在學習海量數據和知識的基礎上,進一步學習百余種不同形式的任務知識,增強模型效果;融合層次化提示的預訓練,更好地建模不同任務的共性與特性;將不同任務組織成統一的自然語言形式,統一建模增強模型的泛化能力,其相較于其他NLP大模型,在各類NLP任務上表現出了更強的零樣本和小樣本學習能力。

近年來,百度AI技術加速落地,新興的AIGC更是引人注目。AIGC是繼 UGC、PGC之后新型利用AI技術自動生成內容的生產方式。百度研究院預測,2022年AIGC技術將借助大模型的跨模態綜合技術能力,可以激發創意,提升內容多樣性,降低制作成本,實現大規模應用。

本次度曉曉寫高考作文,就是基于飛槳文心大模型實現的AIGC創作,文心大模型具備“知識增強”的核心特點,能從大規模知識和海量數據中進行融合學習,學習效率更高、效果更好,具有通用性好、泛化性強的特點。

除了智能寫作,在文心大模型的支持下,AI已經具備很強的理解和生成能力,能夠實現創意作品的自動生成,包括AI作畫、AI寫歌、AI剪輯等,未來,基于大模型的AIGC將會開放賦能到更多的內容生產領域。除了在智能創作上外,文心大模型也已經在工業、能源、教育、金融、通信、媒體等諸多行業得到應用。

預訓練大模型使AI通用性增強

大模型是AI領域最重要的前沿技術方向,自2018年OpenAI推出1.1億參數的GPT以后,谷歌、微軟、Facebook等相繼推出自己的預訓練模型,2020年OpenAI再次推出1750億參數的GPT-3,更是引發科研機構和企業在大模型研究的競賽,大模型的參數規模逐漸增加。

2021年大模型層出不窮,1月,谷歌發布首個萬億級模型Switch Transformer;3月,北京智源研究院發布悟道1.0,6月發布悟道2.0,參數規模超過百億;4月,華為云發布盤古大模型,這是業界首個千億參數中文語言預訓練模型;9月,浪潮發布參數量達2457億的巨量模型“源1.0”;11月,英偉達與微軟聯合發布5300億參數的“MT-NLG”;同在11月,阿里達摩院宣布其多模態大模型M6最新參數從萬億躍遷至10萬億,超過谷歌、微軟此前發布的萬億級模型,成為全球最大的AI預訓練模型。

預訓練大模型其實是機器學習的一種方式,類比人的學習來看,人的學習可以分成通識教育和專業教育兩段,預訓練大模型相當于解決機器學習的通識教育。此前,機器學習主要通過標注數據,告訴算法哪個數據是正負樣本等進行學習。由于人工智能落地場景很多,每個場景都要采數據、標數據,因此在標注的數量和質量上存在很大的瓶頸。

為解決以上問題,自然語言處理領域迎來了一個新的突破:自監督學習,指的是不用人為標注數據,機器可以用一個方法把知識和規律學出來。比如,在模型訓練中,如果我們把“中國的首都是北京”這句話中的“北京”蓋住,讓模型去猜中國的首都是哪里,模型可能會猜一個城市,再把蓋的地方翻開,告訴模型是對了還是錯了,模型也就得到了反饋。

通過設計類似的學習方式,讓模型可以在海量的數據當中進行自監督學習。這個機制的好處就是,它可以把天然存在的大量數據利用起來,打破一定要精標數據才能學習的瓶頸,大模型的出現,實際上是為了大幅度降低了行業應用的門檻。

還有一個特別容易理解的解釋,預訓練大模型是在一個原始任務上預先訓練一個初始模型,然后在目標任務上使用該模型,針對目標任務的特性,對該初始模型進行精調,從而達到提高目標任務的目的。在本質上,這是一種遷移學習的方法,在自己的目標任務上使用別人訓練好的模型。

整體而言,預訓練大模型的興起,使得人工智能的通用性進一步增強,大模型具有效果好、泛化性強、研發流程標準化程度高等特點,正在成為人工智能技術及應用的新基座。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 智能
    +關注

    關注

    8

    文章

    1729

    瀏覽量

    118847
  • 百度
    +關注

    關注

    9

    文章

    2326

    瀏覽量

    91834
  • 人工智能
    +關注

    關注

    1804

    文章

    48726

    瀏覽量

    246619
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    用PaddleNLP為GPT-2模型制作FineWeb二進制訓練數據集

    作者:算力魔方創始人/英特爾創新大使劉力 《用PaddleNLP在4060單卡上實踐大模型訓練技術》發布后收到讀者熱烈反響,很多讀者要求進一步講解更多的技術細節。本文主要針對大語言模型
    的頭像 發表于 03-21 18:24 ?1171次閱讀
    用PaddleNLP為GPT-2<b class='flag-5'>模型</b>制作FineWeb二進制<b class='flag-5'>預</b><b class='flag-5'>訓練</b>數據集

    從Open Model Zoo下載的FastSeg大型公共訓練模型,無法導入名稱是怎么回事?

    從 Open Model Zoo 下載的 FastSeg 大型公共訓練模型。 運行 converter.py 以將 FastSeg 大型模型轉換為中間表示 (IR): pyth
    發表于 03-05 07:22

    用PaddleNLP在4060單卡上實踐大模型訓練技術

    作者:算力魔方創始人/英特爾創新大使劉力 之前我們分享了《從零開始訓練一個大語言模型需要投資多少錢》,其中高昂的訓練費用讓許多對大模型
    的頭像 發表于 02-19 16:10 ?865次閱讀
    用PaddleNLP在4060單卡上實踐大<b class='flag-5'>模型</b><b class='flag-5'>預</b><b class='flag-5'>訓練</b>技術

    清華與百合作共建生態環境訓練模型

    訓練模型。這一合作基于清華大學在環境科學領域的深厚研究基礎和知識積累,以及百在人工智能技術方面的顯著優勢。雙方將強強聯合,致力于將先進的人工智能技術應用于生態環境保護領域,為可持續發展提供強有力的技術支持
    的頭像 發表于 01-17 10:04 ?468次閱讀

    清華與百攜手共建生態環境訓練模型

    近日,在“中國環境科學學會生態環境人工智能專委會成立大會暨學術論壇”上,清華大學環境學院的徐明教授宣布了一項重要戰略合作。清華大學將與百攜手,共同打造生態環境垂直領域的訓練模型
    的頭像 發表于 01-16 11:07 ?474次閱讀

    【「基于大模型的RAG應用開發與優化」閱讀體驗】+大模型微調技術解讀

    今天學習<基于大模型的RAG應用開發與優化>這本書。大模型微調是深度學習領域中的一項關鍵技術,它指的是在已經訓練好的大型深度學習模型
    發表于 01-14 16:51

    KerasHub統一、全面的訓練模型

    深度學習領域正在迅速發展,在處理各種類型的任務中,訓練模型變得越來越重要。Keras 以其用戶友好型 API 和對易用性的重視而聞名,始終處于這一動向的前沿。Keras 擁有專用的內容庫,如用
    的頭像 發表于 12-20 10:32 ?445次閱讀

    什么是大模型、大模型是怎么訓練出來的及大模型作用

    ,基礎模型。 ? 大模型是一個簡稱,完整的叫法,應該是“人工智能訓練模型”。
    的頭像 發表于 11-25 09:29 ?1.3w次閱讀
    什么是大<b class='flag-5'>模型</b>、大<b class='flag-5'>模型</b>是怎么<b class='flag-5'>訓練</b>出來的及大<b class='flag-5'>模型</b>作用

    華為宋迪出席自動駕駛網絡峰會

    第10屆全球超寬帶高峰論壇(UBBF 2024)期間,華為運營商業務首席營銷官宋迪博士出席自動駕駛網絡峰會,并發表主題致辭。會上,宋迪分享了華為與合作伙伴的產業發展及商業實踐成果。
    的頭像 發表于 11-04 16:08 ?737次閱讀

    直播預約 |數據智能系列講座第4期:訓練的基礎模型下的持續學習

    鷺島論壇數據智能系列講座第4期「訓練的基礎模型下的持續學習」10月30日(周三)20:00精彩開播期待與您云相聚,共襄學術盛宴!|直播信息報告題目
    的頭像 發表于 10-18 08:09 ?528次閱讀
    直播預約 |數據智能系列講座第4期:<b class='flag-5'>預</b><b class='flag-5'>訓練</b>的基礎<b class='flag-5'>模型</b>下的持續學習

    【《大語言模型應用指南》閱讀體驗】+ 基礎

    的章節包括統一自然語言任務、大語言模型訓練過程和局限性分析,閱讀還算順利。 至此,基礎只能算是瀏覽完成,因為部分原理方法并沒有吃透,但盡管如此也是收獲頗豐,
    發表于 07-25 14:33

    訓練和遷移學習的區別和聯系

    訓練和遷移學習是深度學習和機器學習領域中的兩個重要概念,它們在提高模型性能、減少訓練時間和降低對數據量的需求方面發揮著關鍵作用。本文將從定義、原理、應用、區別和聯系等方面詳細探討
    的頭像 發表于 07-11 10:12 ?1908次閱讀

    大語言模型訓練

    能力,逐漸成為NLP領域的研究熱點。大語言模型訓練是這一技術發展的關鍵步驟,它通過在海量無標簽數據上進行訓練,使模型學習到語言的通用知識
    的頭像 發表于 07-11 10:11 ?894次閱讀

    LLM訓練的基本概念、基本原理和主要優勢

    在人工智能和自然語言處理(NLP)領域,大型語言模型(Large Language Model,簡稱LLM)的興起極大地推動了技術的進步和應用的發展。LLM通過在大規模文本數據上進行訓練,獲得了
    的頭像 發表于 07-10 11:03 ?2763次閱讀

    訓練模型的基本原理和應用

    訓練模型(Pre-trained Model)是深度學習和機器學習領域中的一個重要概念,尤其是在自然語言處理(NLP)和計算機視覺(CV)等領域中得到了廣泛應用。
    的頭像 發表于 07-03 18:20 ?4189次閱讀