780GB降低到 。 開源社區(qū)直接開始狂歡,相關(guān)論文成為24小時(shí)內(nèi)關(guān)注度最高的AI論文。 ? 以Meta的美洲駝LLaMA為基礎(chǔ),得到原駝 650億參數(shù)版只需要48GB顯存單卡微調(diào)24小時(shí),330億參數(shù)版只需要24GB顯存單卡微調(diào)12小時(shí) 。 24GB顯存,也就" />

女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

iPhone都能微調(diào)大模型了嘛

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 2023-06-02 15:26 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

自動測試分?jǐn)?shù)達(dá)到ChatGPT的99.3%,人類難以分辨兩者的回答……

這是開源大模型最新成果,來自羊駝家族的又一重磅成員——華盛頓大學(xué)原駝Guanaco)。

更關(guān)鍵的是,與原駝一起提出的新方法QLoRA把微調(diào)大模型的顯存需求從>780GB降低到<48GB

開源社區(qū)直接開始狂歡,相關(guān)論文成為24小時(shí)內(nèi)關(guān)注度最高的AI論文。

以Meta的美洲駝LLaMA為基礎(chǔ),得到原駝650億參數(shù)版只需要48GB顯存單卡微調(diào)24小時(shí),330億參數(shù)版只需要24GB顯存單卡微調(diào)12小時(shí)

24GB顯存,也就是一塊消費(fèi)級RTX3090或RTX4090顯卡足以。

不少網(wǎng)友在測試后也表示,更喜歡它而不是ChatGPT。

英偉達(dá)科學(xué)家Jim Fan博士對此評價(jià)為:大模型小型化的又一里程碑

先擴(kuò)大規(guī)模再縮小,將成為開源AI社區(qū)的節(jié)奏。

而新的高效微調(diào)方法QLoRA迅速被開源社區(qū)接受,HuggingFace也在第一時(shí)間整合上線了相關(guān)代碼。

GPT-4做裁判,原駝得分達(dá)到ChatGPT的99.3%

論文中,團(tuán)隊(duì)對原駝總共做了三項(xiàng)測試,自動評估、隨機(jī)匹配和人類評估。

測試數(shù)據(jù)來自小羊駝Vicuna和Open Assistant。

自動評估由大模型天花板GPT-4當(dāng)裁判,對不同模型的回答進(jìn)行打分,以ChatGPT(GPT3.5)的成績作為100%。

最終原駝650億版得分達(dá)到ChatGPT的99.3%,而GPT-4自己的得分是114.5%,谷歌Bard是94.8%。

07234144-fbd8-11ed-90ce-dac502259ad0.png

隨機(jī)匹配,采用棋類專業(yè)比賽和電子競技同款的Elo記分機(jī)制,由GPT-4和人類共同做裁判。

原駝650億和330億版最終得分超過ChatGPT(GPT3.5)。

0742960c-fbd8-11ed-90ce-dac502259ad0.png

人類評估,則是把原駝650億版的回答和ChatGPT的回答匿名亂序放在一起,人類來盲選哪個(gè)最好。

論文共同一作表示,研究團(tuán)隊(duì)里的人都很難分辨出來,并把測試做成了一個(gè)小游戲放在Colab上,開放給大家挑戰(zhàn)。

076a3edc-fbd8-11ed-90ce-dac502259ad0.png

這里節(jié)選其中一個(gè)問題(附中文翻譯),你能分辨出哪個(gè)是ChatGPT回答的嗎?

問題:How can I improve my time management skills?(如何提高時(shí)間管理技能?)

079eccc4-fbd8-11ed-90ce-dac502259ad0.png

總的來說,原駝的優(yōu)勢在于不容易被問題中的錯(cuò)誤信息誤導(dǎo),比如能指出地球從來沒有被科學(xué)界認(rèn)為是平的。

以及擅長心智理論(Theory of Mind),也就是能推測理解他人的心理狀態(tài)

0819a64c-fbd8-11ed-90ce-dac502259ad0.png

但原駝也并非沒有弱點(diǎn),團(tuán)隊(duì)發(fā)發(fā)現(xiàn)它不太擅長數(shù)學(xué),以及容易用提示注入攻擊把要求保密的信息從它嘴里套出來。

也有網(wǎng)友表示,雖然一個(gè)模型能在某個(gè)數(shù)據(jù)集上無限接近ChatGPT,但像ChatGPT那樣通用還是很難的。

全新方法QLoRA,iPhone都能微調(diào)大模型了

原駝?wù)撐牡暮诵呢暙I(xiàn)是提出新的微調(diào)方法QLoRA

其中Q代表量化(Quantization),用低精度數(shù)據(jù)類型去逼近神經(jīng)網(wǎng)絡(luò)中的高精度浮點(diǎn)數(shù),以提高運(yùn)算效率。

LoRA是微軟團(tuán)隊(duì)在2021年提出的低秩適應(yīng)(Low-Rank Adaptation)高效微調(diào)方法,LoRA后來被移植到AI繪畫領(lǐng)域更被大眾熟知,但最早其實(shí)就是用于大語言模型的。

通常來說,LoRA微調(diào)與全量微調(diào)相比效果會更差,但團(tuán)隊(duì)將LoRA添加到所有的線性層解決了這個(gè)問題。

具體來說,QLoRA結(jié)合了4-bit量化和LoRA,以及團(tuán)隊(duì)新創(chuàng)的三個(gè)技巧:新數(shù)據(jù)類型4-bit NormalFloat分頁優(yōu)化器(Paged Optimizers)和雙重量化(Double Quantization)。

最終QLoRA讓4-bit的原駝在所有場景和規(guī)模的測試中匹配16-bit的性能

0896aea8-fbd8-11ed-90ce-dac502259ad0.png

QLoRA的高效率,讓團(tuán)隊(duì)在華盛頓大學(xué)的小型GPU集群上每天可以微調(diào)LLaMA 100多次……

最終使用Open Assistant數(shù)據(jù)集微調(diào)的版本性能勝出,成為原駝大模型。

Open Assistant數(shù)據(jù)集來自非盈利研究組織LAION(訓(xùn)練Stable Diffusion的數(shù)據(jù)集也來自這里),雖然只有9000個(gè)樣本但質(zhì)量很高,經(jīng)過開源社區(qū)的人工仔細(xì)驗(yàn)證。

這9000條樣本用于微調(diào)大模型,比100萬條指令微調(diào)(Instruction Finetune)樣本的谷歌FLAN v2效果還好。

研究團(tuán)隊(duì)也據(jù)此提出兩個(gè)關(guān)鍵結(jié)論:

指令微調(diào)有利于推理,但不利于聊天

最后,QLoRA的高效率,還意味著可以用在手機(jī)上,論文共同一作Tim Dettmers估計(jì)以iPhone 12 Plus的算力每個(gè)晚上能微調(diào)300萬個(gè)單詞的數(shù)據(jù)量。

這意味著,很快手機(jī)上的每個(gè)App都能用上專用大模型。
責(zé)任編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • iPhone
    +關(guān)注

    關(guān)注

    28

    文章

    13500

    瀏覽量

    206135
  • 顯存
    +關(guān)注

    關(guān)注

    0

    文章

    112

    瀏覽量

    13893
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3519

    瀏覽量

    50416

原文標(biāo)題:開源「原駝」爆火,iPhone都能微調(diào)大模型了,得分逼近ChatGPT!

文章出處:【微信號:zenRRan,微信公眾號:深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    【「基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化」閱讀體驗(yàn)】+大模型微調(diào)技術(shù)解讀

    今天學(xué)習(xí)<基于大模型的RAG應(yīng)用開發(fā)與優(yōu)化>這本書。大模型微調(diào)是深度學(xué)習(xí)領(lǐng)域中的一項(xiàng)關(guān)鍵技術(shù),它指的是在已經(jīng)預(yù)訓(xùn)練好的大型深度學(xué)習(xí)模型基礎(chǔ)上,使用新的、特定任務(wù)相關(guān)的數(shù)據(jù)
    發(fā)表于 01-14 16:51

    使用OpenVINO?訓(xùn)練擴(kuò)展對水平文本檢測模型進(jìn)行微調(diào),收到錯(cuò)誤信息是怎么回事?

    已針對水平文本檢測模型運(yùn)行OpenVINO?訓(xùn)練擴(kuò)展中的 微調(diào) 步驟,并收到錯(cuò)誤消息: RuntimeError: Failed to find annotation files
    發(fā)表于 03-05 06:48

    iPhone X Plus和iPhone 9的最新消息模型機(jī)和保護(hù)殼的體驗(yàn)

    國外有網(wǎng)友帶來了最新的 iPhone X Plus 和 iPhone 9 模型機(jī)和保護(hù)殼上手體驗(yàn)。傳言稱 iPhone X Plus 搭載 6.5 寸顯示屏,而
    的頭像 發(fā)表于 07-07 10:43 ?4645次閱讀

    蘋果新款iPhone X Plus和LCD iPhone的機(jī)器模型泄露

    手機(jī)圈內(nèi)比較知名的爆料者,爆料了兩款據(jù)稱是蘋果 2018 年新一代 iPhone 的機(jī)器模型,包括 6.5 英寸 iPhone X Plus 和 6.1 英寸LCD iPhone
    發(fā)表于 07-31 00:04 ?935次閱讀

    文本分類任務(wù)的Bert微調(diào)trick大全

    1 前言 大家現(xiàn)在打比賽對預(yù)訓(xùn)練模型非常喜愛,基本上作為NLP比賽基線首選(圖像分類也有預(yù)訓(xùn)練模型)。預(yù)訓(xùn)練模型雖然很強(qiáng),可能通過簡單的微調(diào)就能給我們帶來很大提升,但是大家會發(fā)現(xiàn)比賽做
    的頭像 發(fā)表于 07-18 09:49 ?2794次閱讀

    使用NVIDIA TAO工具包和Appen實(shí)現(xiàn)AI模型微調(diào)

    NVIDIA?TAO 工具包與 Appen 的數(shù)據(jù)平臺相結(jié)合,使您能夠訓(xùn)練、微調(diào)和優(yōu)化預(yù)訓(xùn)練模型,以更快地啟動人工智能解決方案。在不犧牲質(zhì)量的情況下,將開發(fā)時(shí)間縮短十倍。在NVIDIA 和 Appen 的綜合專業(yè)知識和工具的幫助下,您將滿懷信心地推出人工智能。
    的頭像 發(fā)表于 04-13 15:29 ?1711次閱讀
    使用NVIDIA TAO工具包和Appen實(shí)現(xiàn)AI<b class='flag-5'>模型</b><b class='flag-5'>微調(diào)</b>

    有哪些省內(nèi)存的大語言模型訓(xùn)練/微調(diào)/推理方法?

    首先,我們需要了解如何根據(jù)參數(shù)量估計(jì)模型大致所需的 RAM,這在實(shí)踐中有很重要的參考意義。我們需要通過估算設(shè)置 batch_size,設(shè)置模型精度,選擇微調(diào)方法和參數(shù)分布方法等。
    的頭像 發(fā)表于 04-10 11:41 ?1949次閱讀

    調(diào)教LLaMA類模型沒那么難,LoRA將模型微調(diào)縮減到幾小時(shí)

    工智能領(lǐng)域,以高效和有效的方式使用大型語言模型正變得越來越重要。 LoRA(Low-Rank Adaption,低秩自適應(yīng)) 作為微調(diào) LLMs 一種比較出圈的技術(shù),其額外引入了可訓(xùn)練的低秩分解矩陣,同時(shí)固定住預(yù)訓(xùn)練權(quán)重,從而大大減少了下游任務(wù)的可訓(xùn)練參數(shù)數(shù)量。
    的頭像 發(fā)表于 05-28 10:58 ?3242次閱讀
    調(diào)教LLaMA類<b class='flag-5'>模型</b>沒那么難,LoRA將<b class='flag-5'>模型</b><b class='flag-5'>微調(diào)</b>縮減到幾小時(shí)

    中軟國際參加首期百度智能云文心千帆大模型SFT微調(diào)能力實(shí)訓(xùn)營

    2023年7月15日,中軟國際受邀在百度大廈參加了首期百度智能云文心千帆大模型SFT微調(diào)能力實(shí)訓(xùn)營。此次培訓(xùn)旨在提高合作伙伴對大模型的理解和落地能力,更好地幫助客戶落地大模型和相關(guān)應(yīng)用
    的頭像 發(fā)表于 07-17 18:15 ?1040次閱讀
    中軟國際參加首期百度智能云文心千帆大<b class='flag-5'>模型</b>SFT<b class='flag-5'>微調(diào)</b>能力實(shí)訓(xùn)營

    OpenAI開放大模型微調(diào)功能 GPT-3.5可以打造專屬ChatGPT

    OpenAI開放大模型微調(diào)功能 GPT-3.5可以打造專屬ChatGPT OpenAI開放大模型微調(diào)功能,這意味著GPT-3.5 Turbo支持自定義
    的頭像 發(fā)表于 08-23 19:34 ?1829次閱讀

    OpenAI開放大模型微調(diào)功能!

    除了提高性能之外,還能縮短提示時(shí)間,確保類似性能。另外,微調(diào)目前僅支持處理4000 tokens,這也是此前微調(diào)型號的兩倍。16k tokens微調(diào)將于今年秋季推出。
    的頭像 發(fā)表于 08-24 16:39 ?930次閱讀
    OpenAI開放大<b class='flag-5'>模型</b><b class='flag-5'>微調(diào)</b>功能!

    盤古大模型3.0是什么?

    從整體上看,盤古大模型分為3個(gè)訓(xùn)練階段。一是事前培訓(xùn),利用龐大數(shù)據(jù)進(jìn)行事前培訓(xùn),獲得通用基礎(chǔ)模型;二是針對微調(diào),下游行業(yè)的具體任務(wù),結(jié)合行業(yè)數(shù)據(jù)進(jìn)行微調(diào)。三是將大型
    的頭像 發(fā)表于 09-05 09:43 ?2819次閱讀

    一種新穎的大型語言模型知識更新微調(diào)范式

    我們使用LLAMA2-7B作為實(shí)驗(yàn)的基礎(chǔ)模型。我們主要評估將舊知識更新為新知識的能力,因此模型將首先在舊知識上進(jìn)行為期3個(gè)時(shí)期的微調(diào)。表1中F-Learning中設(shè)置的超參數(shù)λ分別取值為0.3、0.7、0.1和1.5。
    發(fā)表于 12-01 15:10 ?648次閱讀
    一種新穎的大型語言<b class='flag-5'>模型</b>知識更新<b class='flag-5'>微調(diào)</b>范式

    四種微調(diào)模型的方法介紹

    微調(diào)(Full Fine-tuning):全微調(diào)是指對整個(gè)預(yù)訓(xùn)練模型進(jìn)行微調(diào),包括所有的模型參數(shù)。在這種方法中,預(yù)訓(xùn)練
    發(fā)表于 01-03 10:57 ?2.6w次閱讀
    四種<b class='flag-5'>微調(diào)</b>大<b class='flag-5'>模型</b>的方法介紹

    模型為什么要微調(diào)?大模型微調(diào)的原理

    難以達(dá)到最佳性能。為了提升模型在特定任務(wù)上的表現(xiàn),微調(diào)(Fine-tuning)成為了一個(gè)關(guān)鍵步驟。本文將詳細(xì)探討大模型為什么要進(jìn)行微調(diào)以及微調(diào)
    的頭像 發(fā)表于 07-10 10:43 ?7352次閱讀