女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

AI訓(xùn)練算力需求昂貴,機(jī)器學(xué)習(xí)成本成問題

如意 ? 來源:澎湃新聞 ? 作者:澎湃新聞 ? 2020-07-03 12:54 ? 次閱讀

對于計(jì)算工業(yè),其最基本的一個(gè)假設(shè)是:數(shù)字處理會(huì)變得越來越便宜。并且根據(jù)著名的摩爾定律,可以預(yù)測在給定尺寸的芯片其上面能集成的電路個(gè)數(shù)(差不多相當(dāng)于算力)通常每兩年會(huì)翻一番。

斯坦福人工智能研究所副所長克里斯托弗·曼寧表示,對于許多相對簡單的AI應(yīng)用來言,上述假設(shè)意味著訓(xùn)練成本的降低。但對于有些應(yīng)用現(xiàn)在卻不是這樣的,特別是因?yàn)椴粩嘣黾拥难芯繌?fù)雜性和競爭性,使得最前沿模型的訓(xùn)練成本還在不斷上升。

曼寧用BERT模型來舉例,BERT是谷歌在18年提出的AI語言模型,已被用在谷歌搜索中。該模型有超過3.5億個(gè)內(nèi)部參數(shù),而且要大量數(shù)據(jù)來進(jìn)行訓(xùn)練,大概用了33億個(gè)大部分來自維基百科的單詞來訓(xùn)練。接著曼寧說,現(xiàn)在看來維基百科都不是個(gè)多大的數(shù)據(jù)集了?!叭绻苡?00億個(gè)單詞訓(xùn)練一個(gè)系統(tǒng),那它的性能肯定比用30億個(gè)單詞訓(xùn)練的系統(tǒng)要好?!钡嗟臄?shù)據(jù)也意味著要用更多算力進(jìn)行支持。

總部位于加州的OpenAI表示,隨著對機(jī)器學(xué)習(xí)興趣的不斷增加,對算力的需求從12年開始也急劇增加了。到18年,用于訓(xùn)練大型模型的計(jì)算機(jī)算力相比之前已增長了30萬倍,并且還每三個(gè)半月翻一番(見圖)。比如,為訓(xùn)練能在DOTA 2中擊敗人類的“OpenAI Five”系統(tǒng),就幾乎將機(jī)器學(xué)習(xí)訓(xùn)練擴(kuò)展到了“前所未有的水平”,差不多用數(shù)千塊芯片訓(xùn)練了十多個(gè)月。

關(guān)于所有這些訓(xùn)練成本的確切數(shù)字,馬薩諸塞州阿默斯特大學(xué)的研究人員在19年發(fā)表的一篇論文中進(jìn)行了估計(jì),例如訓(xùn)練某個(gè)版本的Transformer模型可能就要花費(fèi)300萬美金。同時(shí)Facebook的AI負(fù)責(zé)人杰羅姆·佩森蒂表示,針對當(dāng)前最大的模型進(jìn)行一輪訓(xùn)練光是電費(fèi)可能就好幾百萬美金。

云計(jì)算輔助

然而,對于Facebook這樣19年利潤就達(dá)185億美元的公司,這點(diǎn)錢不算什么。但對于那些現(xiàn)金并不充足的公司就有點(diǎn)壓力山大了。著名風(fēng)險(xiǎn)投資公司Andreessen Horowitz (a16z)指出,許多AI初創(chuàng)公司都是從云計(jì)算公司(如亞馬遜和微軟)來租用訓(xùn)練所需的算力。而因此帶來的費(fèi)用(有時(shí)占收入的25%或更多)也是AI初創(chuàng)公司投資吸引力低于老式軟件公司的原因之一。3月,曼寧博士在斯坦福大學(xué)的同事們,包括著名的李飛飛,一起呼吁創(chuàng)建美國國家研究云計(jì)算計(jì)劃,旨在幫助美國AI研究人員應(yīng)對不斷增長的訓(xùn)練費(fèi)用。

對算力日益增長的需求同時(shí)也推動(dòng)了芯片設(shè)計(jì)和AI專用計(jì)算設(shè)備的蓬勃發(fā)展。專用芯片的第一波浪潮是GPU的出現(xiàn),其在90年代設(shè)計(jì)出來就是為了用于增強(qiáng)視頻游戲圖形處理。而非常巧的是,GPU也非常適合現(xiàn)在AI應(yīng)用中的數(shù)學(xué)計(jì)算。

相比起GPU現(xiàn)在還有更專業(yè)的芯片,各個(gè)公司也正在致力于研究這些芯片。去年12月,英特爾就以20億美元的價(jià)格收購了以色列公司Habana Labs;而成立于16年的英國公司Graphcore在2019年的估值為20億美元;最大的GPU制造商N(yùn)vidia等公司已對其芯片進(jìn)行了重新設(shè)計(jì)來適應(yīng)AI的計(jì)算需求;Google內(nèi)部設(shè)計(jì)了自己的“張量處理單元”(TPU)芯片;而中國科技巨頭百度也已用上了自己的“昆侖”芯片。畢馬威的阿方索·馬龍認(rèn)為,專用AI芯片的市場價(jià)值已達(dá)約100億美元的規(guī)模,而到2025年預(yù)估能達(dá)到800億美元。

Graphcore的創(chuàng)始人之一奈杰爾·圖恩表示:“計(jì)算機(jī)體系結(jié)構(gòu)需要適應(yīng)現(xiàn)在訓(xùn)練處理數(shù)據(jù)的方式。” 對于AI運(yùn)算其最基礎(chǔ)的特征可以說就是“并行”,即將運(yùn)算切分為很多小塊同時(shí)進(jìn)行運(yùn)算。例如,Graphcore的芯片有1,200多個(gè)單獨(dú)的數(shù)字運(yùn)算核,能連接在一起提供更多的算力。而加州的創(chuàng)業(yè)公司Cerebras采取了更極端的方法,每個(gè)芯片占用了整張硅片,每張硅片上能放置40萬左右個(gè)核。

除了并行,其他優(yōu)化也很重要。Cerebras的創(chuàng)始人之一安德魯·費(fèi)爾德曼指出,AI模型花費(fèi)了大量時(shí)間來進(jìn)行乘零操作。而因?yàn)檫@些計(jì)算結(jié)果總時(shí)零,所以其實(shí)很多都是不必要的,所以Cerebras的芯片就盡量避免執(zhí)行這些運(yùn)算。同時(shí),Graphcore的Toon先生說,與許多任務(wù)不同,現(xiàn)在AI并不需要超精確的計(jì)算。這也意味著芯片設(shè)計(jì)人員能通過減少運(yùn)算所需的精度來節(jié)省能耗。(而計(jì)算精度到底能降到什么程度仍是個(gè)開放性問題。)

之后所有這些因素都能綜合起來獲得更大提升。Toon就認(rèn)為Graphcore當(dāng)前的芯片效率是GPU的10到50倍。

現(xiàn)在類似的創(chuàng)新變得越來越重要,因?yàn)閷λ懔π枨蠹ぴ稣s上摩爾定律逐漸失效的時(shí)候?,F(xiàn)在縮小芯片變得越來越困難,而且?guī)淼氖找嬉苍絹碓叫 Hツ?,Nvidia的創(chuàng)始人黃仁勛直言不諱地說:“摩爾定律失效了”。

量子解決方案和神經(jīng)形態(tài)方案

因此,現(xiàn)在研究人員還在尋找更多的解決方法。其中一種是量子計(jì)算,利用量子力學(xué)的反直覺特性為某些類型的計(jì)算進(jìn)行大幅提速。關(guān)于機(jī)器學(xué)習(xí)的一種思考角度是將它看作是一個(gè)優(yōu)化問題,而計(jì)算機(jī)試圖在數(shù)百萬個(gè)變量中進(jìn)行權(quán)衡從而求出盡可能最小值。微軟量子系統(tǒng)部門負(fù)責(zé)人Krysta Svore說,一種稱為格羅弗算法的量子計(jì)算技術(shù)具有巨大的提速潛力。

另一種想法是從生物學(xué)中獲得啟發(fā),認(rèn)為當(dāng)前的蠻力方法并不是唯一的方法。當(dāng)Cerebras的芯片運(yùn)行起來,功耗大約為15kw,足以為數(shù)十座房屋供電(相同數(shù)量GPU能耗更多)。而相比起來,人腦消耗能量就只有大概20w,只有前者的千分之一,而人腦在許多方面都比硅芯片更聰明。因此,英特爾和IBM等公司正在研究“神經(jīng)形態(tài)”芯片,希望設(shè)計(jì)出更能模仿生物大腦神經(jīng)元電行為的組件。

但到目前為止,這兩條路都還很遙遠(yuǎn)。量子計(jì)算機(jī)在理論上相對容易理解些,但盡管有谷歌,微軟和IBM等技術(shù)巨頭投入數(shù)十億美元,實(shí)際搭建卻仍是個(gè)巨大挑戰(zhàn)。而神經(jīng)形態(tài)芯片雖然是用現(xiàn)有技術(shù)構(gòu)建的,但讓設(shè)計(jì)人員很氣餒的是,就連神經(jīng)科學(xué)家都還不怎么了解大腦究竟在做什么以及怎么做到的。

這意味著,在可預(yù)見的未來,AI研究人員將不得不繼續(xù)盡可能地壓榨現(xiàn)有計(jì)算技術(shù)性能。而Toon先生對此還是很樂觀的,他認(rèn)為通過更專業(yè)硬件以及調(diào)整現(xiàn)有軟件讓訓(xùn)練更快,也還是能帶來很大收益。為了說明這個(gè)新領(lǐng)域的發(fā)展,他用電子游戲打了個(gè)比方:“現(xiàn)在我們已超越了乓(Pong),可能到了吃豆人?!?/p>

沒有錢來進(jìn)行訓(xùn)練的窮煉丹師們理所當(dāng)然地希望他說的是對的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    34274

    瀏覽量

    275448
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8492

    瀏覽量

    134115
  • 算力
    +關(guān)注

    關(guān)注

    2

    文章

    1147

    瀏覽量

    15459
收藏 人收藏

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    網(wǎng)絡(luò)的“神經(jīng)突觸”:AI互聯(lián)技術(shù)如何重構(gòu)分布式訓(xùn)練范式

    ? 電子發(fā)燒友網(wǎng)綜合報(bào)道 隨著AI技術(shù)迅猛發(fā)展,尤其是大型語言模型的興起,對于需求呈現(xiàn)出爆炸性增長。這不僅推動(dòng)了智中心的建設(shè),還對網(wǎng)
    發(fā)表于 06-08 08:11 ?3190次閱讀
    <b class='flag-5'>算</b><b class='flag-5'>力</b>網(wǎng)絡(luò)的“神經(jīng)突觸”:<b class='flag-5'>AI</b>互聯(lián)技術(shù)如何重構(gòu)分布式<b class='flag-5'>訓(xùn)練</b>范式

    即國力,比克電池如何為AI時(shí)代“蓄能

    引擎》中明確提出,“是數(shù)字經(jīng)濟(jì)時(shí)代的新質(zhì)生產(chǎn),更是國家競爭的重要指標(biāo)?!彪S著AI大模型訓(xùn)練
    的頭像 發(fā)表于 06-04 14:22 ?220次閱讀
    <b class='flag-5'>算</b><b class='flag-5'>力</b>即國力,比克電池如何為<b class='flag-5'>AI</b>時(shí)代“蓄能

    AI原生架構(gòu)升級:RAKsmart服務(wù)器在超大規(guī)模模型訓(xùn)練中的突破

    近年來,隨著千億級參數(shù)模型的崛起,AI訓(xùn)練需求呈現(xiàn)指數(shù)級增長。傳統(tǒng)服務(wù)器架構(gòu)在應(yīng)對分布式訓(xùn)練
    的頭像 發(fā)表于 04-24 09:27 ?198次閱讀

    RAKsmart智能架構(gòu):異構(gòu)計(jì)算+低時(shí)延網(wǎng)絡(luò)驅(qū)動(dòng)企業(yè)AI訓(xùn)練范式升級

    AI大模型參數(shù)量突破萬億、多模態(tài)應(yīng)用爆發(fā)的今天,企業(yè)AI訓(xùn)練正面臨效率與成本的雙重挑戰(zhàn)。R
    的頭像 發(fā)表于 04-17 09:29 ?248次閱讀

    芯片的生態(tài)突圍與革命

    據(jù)的爆發(fā)式增長,大芯片已成為科技競爭的核心領(lǐng)域之一。 ? 大芯片的核心應(yīng)用場景豐富多樣。在人工智能訓(xùn)練與推理方面,大模型(如 GPT
    的頭像 發(fā)表于 04-13 00:02 ?1493次閱讀

    智能最具潛力的行業(yè)領(lǐng)域

    智能最具潛力的行業(yè)領(lǐng)域 一、金融行業(yè) 智能風(fēng)控與精準(zhǔn)服務(wù)?:大型銀行通過集群(6.27萬臺(tái)服務(wù)器)支撐AI模型
    的頭像 發(fā)表于 04-11 08:20 ?239次閱讀
    智能<b class='flag-5'>算</b><b class='flag-5'>力</b>最具潛力的行業(yè)領(lǐng)域

    DeepSeek推動(dòng)AI需求:800G光模塊的關(guān)鍵作用

    隨著人工智能技術(shù)的飛速發(fā)展,AI需求正以前所未有的速度增長。DeepSeek等大模型的訓(xùn)練與推理任務(wù)對
    發(fā)表于 03-25 12:00

    信而泰CCL仿真:解鎖AI極限,智中心網(wǎng)絡(luò)性能躍升之道

    引言 隨著AI大模型訓(xùn)練和推理需求的爆發(fā)式增長,智中心網(wǎng)絡(luò)的高效性與穩(wěn)定性成為決定AI產(chǎn)業(yè)發(fā)展的核心要素。信而泰憑借自主研發(fā)的 CCL(集
    的頭像 發(fā)表于 02-24 17:34 ?383次閱讀
    信而泰CCL仿真:解鎖<b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b>極限,智<b class='flag-5'>算</b>中心網(wǎng)絡(luò)性能躍升之道

    AI需求激增,數(shù)據(jù)中心如何應(yīng)對能源挑戰(zhàn)

    ? “AI的爆發(fā)帶來了巨大的需求,為了滿足AI大模型的訓(xùn)練和應(yīng)用推理,智
    的頭像 發(fā)表于 02-22 09:49 ?492次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>需求</b>激增,數(shù)據(jù)中心如何應(yīng)對能源挑戰(zhàn)

    企業(yè)AI租賃模式的好處

    構(gòu)建和維護(hù)一個(gè)高效、可擴(kuò)展的AI基礎(chǔ)設(shè)施,不僅需要巨額的初期投資,還涉及復(fù)雜的運(yùn)維管理和持續(xù)的技術(shù)升級。而AI
    的頭像 發(fā)表于 12-24 10:49 ?1136次閱讀

    企業(yè)AI租賃是什么

    企業(yè)AI租賃是指企業(yè)通過互聯(lián)網(wǎng)向?qū)I(yè)的提供商租用所需的計(jì)算資源,以滿足其AI應(yīng)用的
    的頭像 發(fā)表于 11-14 09:30 ?2306次閱讀

    AI時(shí)代的重要性及現(xiàn)狀:平衡發(fā)展與優(yōu)化配置的挑戰(zhàn)

    AI時(shí)代,扮演著至關(guān)重要的角色。如果說數(shù)據(jù)是AI大模型的“燃料”,那么則是其強(qiáng)大的“動(dòng)
    的頭像 發(fā)表于 11-04 11:45 ?1033次閱讀

    GPU開發(fā)平臺(tái)是什么

    隨著AI技術(shù)的廣泛應(yīng)用,需求呈現(xiàn)出爆發(fā)式增長。AI
    的頭像 發(fā)表于 10-31 10:31 ?574次閱讀

    大模型時(shí)代的需求

    現(xiàn)在AI已進(jìn)入大模型時(shí)代,各企業(yè)都爭相部署大模型,但如何保證大模型的,以及相關(guān)的穩(wěn)定性和性能,是一個(gè)極為重要的問題,帶著這個(gè)極為重要的問題,我需要在此書中找到答案。
    發(fā)表于 08-20 09:04