女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

微軟聯(lián)合Meta發(fā)布免費(fèi)商業(yè)應(yīng)用的開源AI模型Llama 2

AI科技大本營(yíng) ? 來源:CSDN ? 2023-07-19 16:22 ? 次閱讀

昔日的競(jìng)爭(zhēng)對(duì)手,今日的合作盟友;

忽如一夜春風(fēng)來,開源大模型迎來新局面;

今天是 OSS AI 勝利的一天;

隨著 Meta 最新發(fā)布一個(gè)新的開源 AI 模型——Llama 2,網(wǎng)上盛贊的聲音不絕于耳,甚至圖靈獎(jiǎng)得主、卷積網(wǎng)絡(luò)之父、Meta 首席人工智能科學(xué)家 Yann LeCun 更是直言,「這將改變 LLM 市場(chǎng)的格局」。

be3c9974-2609-11ee-962d-dac502259ad0.png

而Llama 2 之所以能引起這么大的反響,不僅是因?yàn)樗情_源的,更主要的原因便是它可以被免費(fèi)地用于研究和商業(yè)用途。與此同時(shí),Meta 還與微軟強(qiáng)強(qiáng)聯(lián)手,旨在驅(qū)動(dòng) OpenAI 的 ChatGPT、Bing Chat 和其他現(xiàn)代聊天機(jī)器人等應(yīng)用程序。

在 Meta 看來,「開放的方法是當(dāng)今人工智能模型開發(fā)的正確方法,特別是在技術(shù)快速發(fā)展的生成領(lǐng)域。通過公開提供人工智能模型,它們可以使每個(gè)人受益。為企業(yè)、初創(chuàng)企業(yè)、企業(yè)家和研究人員提供其開發(fā)的工具,這些工具的開發(fā)規(guī)模是他們自己難以構(gòu)建的,并以他們可能無法獲得的計(jì)算能力為后盾,將為他們以令人興奮的方式進(jìn)行實(shí)驗(yàn)。」

僅是這一點(diǎn),便是當(dāng)前很多專注于大模型開發(fā)的企業(yè)無法做到的,也如網(wǎng)友評(píng)價(jià)的那番,格局一下被打開。

Llama 2 的前身

今日發(fā)布的 Llama 2 是 Llama(大羊駝)的后續(xù)版本。

今年 2 月,Meta 首次公開發(fā)布 LLaMA,作為具有非商業(yè)許可證的開源版本。這是一種先進(jìn)的基礎(chǔ)大型語言模型,旨在幫助研究人員推進(jìn) AI 這一子領(lǐng)域的工作。更小、性能更高的模型(例如 LLaMA)使研究界中無法訪問大量基礎(chǔ)設(shè)施的其他人能夠研究這些模型,從而進(jìn)一步實(shí)現(xiàn)這一重要且快速變化的領(lǐng)域的訪問民主化。

彼時(shí),Meta提供多種尺寸的 LLaMA(7B、13B、33B 和 65B 參數(shù))。僅從功能上來看,Llama 可以根據(jù)提示生成文本和代碼,與其他類似聊天機(jī)器人的系統(tǒng)相當(dāng)。

然而,當(dāng)時(shí)由于擔(dān)心被濫用,Meta 決定限制對(duì)模型的訪問,所以也只是對(duì)具有一定資格的研究者開放,還需要寫申請(qǐng)表格等。

不過,令人沒想到的是,不久之后便有人將 LLaMA 的權(quán)重(包括經(jīng)過訓(xùn)練的神經(jīng)網(wǎng)絡(luò)的參數(shù)值文件)泄露到了 torrent 網(wǎng)站,使得并沒有完全開放的 LLaMA 大模型短時(shí)間內(nèi)在 AI 社區(qū)大規(guī)模擴(kuò)散開。

很快,經(jīng)過微調(diào)的 LLaMA 的諸多模型如雨后春筍般涌現(xiàn),“羊駝”家族一時(shí)太過擁擠,如斯坦福發(fā)布了 Alpaca(羊駝)、UC 伯克利開源了 Vicuna(小羊駝)、華盛頓大學(xué)提出了 QLoRA 還開源了 Guanaco(原駝)...國(guó)內(nèi)哈工大還基于中文醫(yī)學(xué)知識(shí)的 LLaMA 模型指令微調(diào)出了一個(gè)“華駝”。

時(shí)下,Llama 2 的發(fā)布將這款開源大模型推向一個(gè)新的高度。相比上一代 Llama 模型,經(jīng)過混合公開數(shù)據(jù)的訓(xùn)練,Llama 2 的性能有了顯著提高。

Llama 2:從 7B 到 70B 參數(shù)不等

為此,Meta 發(fā)布了一篇長(zhǎng)達(dá) 76 頁的論文《Llama 2: Open Foundation and Fine-Tuned Chat Models》詳述Llama 2大模型的預(yù)訓(xùn)練、微調(diào)、安全性等相關(guān)的工作。

be7fd2de-2609-11ee-962d-dac502259ad0.png

論文地址:https://scontent-lax3-2.xx.fbcdn.net/v/t39.2365-6/10000000_663429262362723_1696968207443577320_n.pdf?_nc_cat=101&ccb=1-7&_nc_sid=3c67a6&_nc_ohc=5ol-jUSglG4AX_EKgWk&_nc_ht=scontent-lax3-2.xx&oh=00_AfC4pQWErthyr1jwgSScKeyjXW3wwEUnqvIh7MNeb-Et3g&oe=64BBB691

據(jù)論文顯示,Llama 2 有兩種版本:Llama 2和Llama 2-Chat,后者針對(duì)雙向?qū)υ掃M(jìn)行了微調(diào)。Llama 2 和 Llama 2-Chat 進(jìn)一步細(xì)分為不同復(fù)雜程度的版本:70 億個(gè)參數(shù)、130 億個(gè)參數(shù)和 700 億個(gè)參數(shù)。

bea5d60a-2609-11ee-962d-dac502259ad0.png

Meta 將 Llama 2 預(yù)訓(xùn)練語料庫(kù)的規(guī)模增加了 40%,這一款模型(基本模型)接受了 2 萬億個(gè) token 的訓(xùn)練,上下文窗口包含了 4096 個(gè) token,相比上一代,提升了一倍。上下文窗口決定了模型一次可以處理的內(nèi)容的長(zhǎng)度。在硬件方面,Meta 都使用了 NVIDIA A100。

Meta 還表示,Llama 2 微調(diào)模型是為類似于 ChatGPT 的聊天應(yīng)用程序開發(fā)的,已經(jīng)接受了“超過 100 萬條人工注釋”的訓(xùn)練。

bece5bca-2609-11ee-962d-dac502259ad0.png

不過,Meta 在論文中并沒有透露訓(xùn)練數(shù)據(jù)的具體來源,只是說它來自網(wǎng)絡(luò),其中不包括來自 Meta 的產(chǎn)品或服務(wù)的數(shù)據(jù)。

根據(jù)官方基準(zhǔn)測(cè)試,Llama 2 在開源模型領(lǐng)域,一馬當(dāng)先。其中,Llama 2 70B 模型的性能優(yōu)于所有開放源碼模型。

bf1ff6ce-2609-11ee-962d-dac502259ad0.png

和閉源的大模型相比,Llama270B 在推理任務(wù)上接近 GPT-3.5,但在編碼基準(zhǔn)上存在顯著差距。同時(shí),其在性能上還無法與 OpenAI 的 GPT-4、PaLM-2-L 相媲美,在計(jì)算機(jī)編程方面 Llama 2 明顯落后于 GPT-4。

bf3e2130-2609-11ee-962d-dac502259ad0.png

論及 Llama 2 此次真正的優(yōu)勢(shì),Nvidia 高級(jí) AI 科學(xué)家 Jim Fan 高度評(píng)價(jià)道:

Llama-2 的訓(xùn)練費(fèi)用可能超過 2000 萬美元。Meta 通過發(fā)布具有商業(yè)友好許可的模型,為社區(qū)提供了令人難以置信的服務(wù)。由于許可證問題,大公司的人工智能研究人員對(duì) Llama-1 持謹(jǐn)慎態(tài)度,但現(xiàn)在我認(rèn)為他們中的很多人都會(huì)加入進(jìn)來,貢獻(xiàn)自己的力量。

Meta 的團(tuán)隊(duì)對(duì) 4K 提示進(jìn)行了人類研究,以評(píng)估 Llama-2 是否有用。他們使用 "勝率 "作為比較模型的指標(biāo),其精神與 Vicuna 基準(zhǔn)類似。70B 模型與 GPT-3.5-0301 大致持平,表現(xiàn)明顯強(qiáng)于 Falcon、MPT 和 Vicuna。

與學(xué)術(shù)基準(zhǔn)相比,我更相信這些真實(shí)的人類評(píng)級(jí)。

Llama-2 還沒有達(dá)到 GPT-3.5 的水平,主要是因?yàn)樗木幋a能力較弱。在 "HumanEval"(標(biāo)準(zhǔn)編碼基準(zhǔn))上,它還不如 StarCoder 或其他許多專門為編碼而設(shè)計(jì)的模型。盡管如此,我毫不懷疑 Llama-2 將因其開放的權(quán)重而得到顯著改善。

Meta 團(tuán)隊(duì)在人工智能安全問題上不遺余力。事實(shí)上,這篇論文幾乎有一半的篇幅都在談?wù)摪踩⒓t線和評(píng)估。我們要為這種負(fù)責(zé)任的努力鼓掌!

在之前的研究中,幫助性和安全性之間存在著棘手的權(quán)衡問題。Meta 通過訓(xùn)練兩個(gè)獨(dú)立的 reward 模型來緩解這一問題。這些模型還沒有開源,但對(duì)社區(qū)來說非常有價(jià)值。

我認(rèn)為 Llama-2 將極大地推動(dòng)多模態(tài)人工智能和機(jī)器人研究。這些領(lǐng)域需要的不僅僅是黑盒子訪問 API

到目前為止,我們必須將復(fù)雜的感官信息(視頻音頻、三維感知)轉(zhuǎn)換為文本描述,然后再輸入到 LLM,這樣做既笨拙又會(huì)導(dǎo)致大量信息丟失。將感官模塊直接嫁接到強(qiáng)大的 LLM 上會(huì)更有效。

Llama 2 的論文本身就是一部杰作。GPT-4 的技術(shù)詳解論文只分享了很少的信息,而 Llama-2 則不同,它詳細(xì)介紹了整個(gè)細(xì)節(jié),包括模型細(xì)節(jié)、訓(xùn)練階段、硬件、數(shù)據(jù)管道和注釋過程。例如,論文對(duì) RLHF 的影響進(jìn)行了系統(tǒng)分析,并提供了漂亮的可視化效果。

引用第 5.1 節(jié):"我們認(rèn)為,LLMs 在某些任務(wù)中超越人類注釋者的超強(qiáng)寫作能力,從根本上說是由 RLHF 驅(qū)動(dòng)的"。

bf5515a2-2609-11ee-962d-dac502259ad0.png

來源:https://twitter.com/DrJimFan/status/1681372700881854465

不過,值得注意的是,Llama 2 雖然允許了商業(yè)使用,但是它在社區(qū)許可協(xié)議中還添加了一條附加商業(yè)條款:

如果在 Llama 2 版本發(fā)布之日,被許可方或被許可方的關(guān)聯(lián)公司提供的產(chǎn)品或服務(wù)的每月活躍用戶數(shù)在上一個(gè)日歷月中超過 7 億,則您必須向Meta申請(qǐng)?jiān)S可,Meta 可以自行決定向您授予該權(quán)利,并且您無權(quán)行使本協(xié)議項(xiàng)下的任何權(quán)利,除非或直到 Meta 明確授予您此類權(quán)利。

bf901008-2609-11ee-962d-dac502259ad0.png

這意味著一些大廠,譬如亞馬遜、Google 這樣的巨頭想要使用 Llama 2,還存在一定限制。

bfa860fe-2609-11ee-962d-dac502259ad0.png

Meta 與微軟強(qiáng)強(qiáng)聯(lián)手

當(dāng)然,Meta 也并沒有將所有大廠拒絕門外。在此次官方公告中,Meta 宣布了和微軟的深度合作。

其中,作為 Llama 2 的首選合作伙伴微軟,Meta 表示,從今天開始,Llama 2 可在 Azure AI 模型目錄中使用,基于此,使用 Microsoft Azure 的開發(fā)人員能夠使用 Llama 2 進(jìn)行構(gòu)建,并利用其云原生工具進(jìn)行內(nèi)容過濾和安全功能。

與此同時(shí),Llama 2 還經(jīng)過優(yōu)化,可以在 Windows 上本地運(yùn)行,為開發(fā)人員提供無縫的工作流程,為跨不同平臺(tái)的客戶帶來生成式 AI 體驗(yàn)。Llama 2 也可通過 Amazon Web Services (AWS)、Hugging Face 和其他提供商獲取。

有網(wǎng)友評(píng)論,微軟這一波又贏了!


除了與微軟合作之外,Meta 也與高通進(jìn)行了合作。高通宣布,“計(jì)劃從 2024 年起,在旗艦智能手機(jī)和 PC 上支持基于 Llama 2 的 AI 部署,賦能開發(fā)者使用驍龍平臺(tái)的 AI 能力,推出激動(dòng)人心的全新生成式 AI 應(yīng)用。”

沒有 100% 完美的大模型

不過,對(duì)于 Llama 2,Meta 公司也承認(rèn)它并非絕對(duì)的完美,因?yàn)槠錅y(cè)試不可能捕獲所有現(xiàn)實(shí)世界場(chǎng)景,并且其基準(zhǔn)測(cè)試可能缺乏多樣性,換句話說,沒有充分涵蓋編碼和人類推理等領(lǐng)域。

Meta 還承認(rèn),Llama 2 與所有生成式 AI 模型一樣,在某些層面存在偏差。例如,由于訓(xùn)練數(shù)據(jù)的不平衡以及訓(xùn)練數(shù)據(jù)中存在“有毒”文本,它可能會(huì)制造“幻覺”、生成“有毒性”的內(nèi)容。

針對(duì)這一點(diǎn),Meta 選擇和微軟合作的一部分,也包括使用 Azure AI Content Safety,該服務(wù)旨在檢測(cè) AI 生成的圖像和文本中的“不當(dāng)”內(nèi)容,以減少 Azure 上有毒的 Llama 2 輸出。

同時(shí),Meta 在論文中強(qiáng)調(diào) Llama 2 用戶除了遵守有關(guān)“安全開發(fā)和使用”的準(zhǔn)則外,還必須遵守 Meta 的許可條款和可接受的使用政策,在一定程度上減少有偏差性的內(nèi)容。

開源大模型的未來

最后,如果說 OpenAI 引領(lǐng)大模型賽道,那么 Meta 則開辟了開源大模型的新大門。

以開源的方式,匯聚更多的創(chuàng)新,Llama 2 的開源也為眾人預(yù)測(cè)中的“未來,開源大模型會(huì)主導(dǎo)整個(gè)大模型的發(fā)展方向”帶來更多可能性。

這也正如 Ars Technica 總結(jié)的:開源人工智能模型的到來,不僅鼓勵(lì)透明度(用于制作模型的訓(xùn)練數(shù)據(jù)而言),而且促進(jìn)經(jīng)濟(jì)競(jìng)爭(zhēng)(不將技術(shù)限制于大公司)、鼓勵(lì)言論自由(沒有審查制度),并使人工智能的訪問民主化(沒有付費(fèi)專區(qū)限制)。

同時(shí),為了避免 Llama 2 開源存在的潛在爭(zhēng)議,Meta 還同時(shí)發(fā)布了一封主題為《支持 Meta 對(duì)當(dāng)今人工智能的開放方法的聲明》的聲明,其寫道:

“我們支持對(duì)人工智能采取開放式創(chuàng)新方法。負(fù)責(zé)任和開放式創(chuàng)新為我們所有人提供了參與人工智能開發(fā)過程,為這些技術(shù)帶來可見性、審查和信任。今天開放的 Llama 模型將使每個(gè)人都從這項(xiàng)技術(shù)中受益。”

截至目前,已有近百位 AI 專家參與簽名,其中包括 Drew Houston(Dropbox 首席執(zhí)行官)、Matt Bornstein(Andreessen Horowitz 合伙人)、Julien Chaumond(Hugging Face 首席技術(shù)官)、Lex Fridman(麻省理工學(xué)院研究科學(xué)家)和 Paul Graham(Y Combinator 的創(chuàng)始合伙人)等。

當(dāng)然,也不容忽視的是,無論是開源還是閉源大模型,其都面臨著復(fù)雜的法律問題,因?yàn)樗麄冃枰袆e用于訓(xùn)練的數(shù)據(jù)池中是否存在受版權(quán)保護(hù)的資源。如何有效避免這些問題,也成為這些大模型開發(fā)公司下一階段需要解決的事情。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 微軟
    +關(guān)注

    關(guān)注

    4

    文章

    6673

    瀏覽量

    105366
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    34197

    瀏覽量

    275353
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3025

    瀏覽量

    3825

原文標(biāo)題:微軟又贏麻了!聯(lián)合 Meta 發(fā)布免費(fèi)商業(yè)應(yīng)用的開源 AI 模型 Llama 2

文章出處:【微信號(hào):AI科技大本營(yíng),微信公眾號(hào):AI科技大本營(yíng)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    無法在OVMS上運(yùn)行來自Meta的大型語言模型 (LLM),為什么?

    無法在 OVMS 上運(yùn)行來自 Meta 的大型語言模型 (LLM),例如 LLaMa2。 從 OVMS GitHub* 存儲(chǔ)庫(kù)運(yùn)行 llama_chat Python* Demo 時(shí)
    發(fā)表于 03-05 08:07

    Meta重磅發(fā)布Llama 3.3 70B:開源AI模型的新里程碑

    ?在人工智能領(lǐng)域,Meta的最新動(dòng)作再次引起了全球的關(guān)注。今天,我們見證了Meta發(fā)布Llama 3.3 70B 模型,這是一個(gè)
    的頭像 發(fā)表于 12-18 16:46 ?517次閱讀
    <b class='flag-5'>Meta</b>重磅<b class='flag-5'>發(fā)布</b><b class='flag-5'>Llama</b> 3.3 70B:<b class='flag-5'>開源</b><b class='flag-5'>AI</b><b class='flag-5'>模型</b>的新里程碑

    Meta發(fā)布AI模型Meta Motivo,旨在提升元宇宙體驗(yàn)

    Meta在人工智能領(lǐng)域邁出了重要一步。通過這款模型Meta希望能夠?yàn)橛脩籼峁└幼匀弧⒘鲿车脑钪娼换ンw驗(yàn)。數(shù)字代理在元宇宙中的動(dòng)作將更加逼真,從而增強(qiáng)用戶的沉浸感和參與度。 除了Meta
    的頭像 發(fā)表于 12-16 10:34 ?858次閱讀

    Meta推出Llama 3.3 70B,AI模型競(jìng)爭(zhēng)白熱化

    在今年的AI領(lǐng)域,Meta也不甘落后,推出了其壓軸之作——Llama 3.3 70B大模型。與此同時(shí),馬斯克的xAI也宣布其Grok模型從今
    的頭像 發(fā)表于 12-09 14:50 ?742次閱讀

    使用NVIDIA TensorRT提升Llama 3.2性能

    Llama 3.2 模型集擴(kuò)展了 Meta Llama 開源模型集的
    的頭像 發(fā)表于 11-20 09:59 ?684次閱讀

    Meta發(fā)布Llama 3.2量化版模型

    近日,Meta開源Llama 3.2的1B與3B模型后,再次為人工智能領(lǐng)域帶來了新進(jìn)展。10月24日,Meta正式推出了這兩個(gè)
    的頭像 發(fā)表于 10-29 11:05 ?764次閱讀

    Llama 3 與開源AI模型的關(guān)系

    在人工智能(AI)的快速發(fā)展中,開源AI模型扮演著越來越重要的角色。它們不僅推動(dòng)了技術(shù)的創(chuàng)新,還促進(jìn)了全球開發(fā)者社區(qū)的合作。Llama 3,
    的頭像 發(fā)表于 10-27 14:42 ?686次閱讀

    扎克伯格:聯(lián)想運(yùn)用Meta Llama模型打造個(gè)人AI助手AI Now

    美國(guó)西部時(shí)間10月15日,聯(lián)想集團(tuán)于美國(guó)西雅圖盛大舉辦了一年一度的Tech World大會(huì)。會(huì)上,聯(lián)想集團(tuán)首席執(zhí)行官楊元慶攜手Meta創(chuàng)始人兼首席執(zhí)行官馬克·扎克伯格,共同揭曉了一項(xiàng)重大合作成果——基于MetaLlama
    的頭像 發(fā)表于 10-16 14:58 ?849次閱讀

    亞馬遜云科技上線Meta Llama 3.2模型

    亞馬遜云科技近日宣布,Meta公司的新一代模型Llama 3.2已在其平臺(tái)上正式上線。該模型包括Meta首款多模態(tài)
    的頭像 發(fā)表于 10-11 18:08 ?693次閱讀

    亞馬遜云科技正式上線Meta Llama 3.2模型

    亞馬遜云科技宣布,Meta的新一代模型Llama 3.2,包括其首款多模態(tài)模型,現(xiàn)已在Amazon Bedrock和Amazon SageMaker中正式可用。
    的頭像 發(fā)表于 10-11 09:20 ?801次閱讀

    Meta發(fā)布多模態(tài)LLAMA 3.2人工智能模型

    Meta Platforms近日宣布了一項(xiàng)重要技術(shù)突破,成功推出了多模態(tài)LLAMA 3.2人工智能模型。這一創(chuàng)新模型不僅能夠深度解析文本信息,還實(shí)現(xiàn)了對(duì)圖像內(nèi)容的精準(zhǔn)理解,標(biāo)志著
    的頭像 發(fā)表于 09-27 11:44 ?622次閱讀

    英偉達(dá)發(fā)布AI模型 Llama-3.1-Nemotron-51B AI模型

    英偉達(dá)公司宣布推出 Llama-3.1-Nemotron-51B AI 模型,這個(gè)AI模型是源自 Me
    的頭像 發(fā)表于 09-26 17:30 ?835次閱讀

    Meta Llama 3.1系列模型可在Google Cloud上使用

    我們很高興宣布,Llama 3.1 系列模型已添加到 Vertex AI Model Garden,這包括全新的 405B,即 Meta 迄今為止功能最強(qiáng)大、用途最廣泛的
    的頭像 發(fā)表于 08-02 15:42 ?654次閱讀

    Meta發(fā)布全新開源模型Llama 3.1

    科技巨頭Meta近期震撼發(fā)布了其最新的開源人工智能(AI模型——Llama 3.1,這一舉措標(biāo)
    的頭像 發(fā)表于 07-24 18:25 ?1721次閱讀

    Meta即將發(fā)布超強(qiáng)開源AI模型Llama 3-405B

    在人工智能領(lǐng)域的激烈競(jìng)爭(zhēng)中,Meta公司再次擲出重磅炸彈,宣布將于7月23日正式發(fā)布其最新力作——Llama 3-405B,一個(gè)擁有驚人4050億參數(shù)的開源
    的頭像 發(fā)表于 07-18 09:58 ?1267次閱讀