女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

利用2.5GPU年的算力在7個數(shù)據(jù)集上訓(xùn)練了12000多個模型

nlfO_thejiangme ? 來源:lq ? 2019-04-30 09:14 ? 次閱讀

基于無監(jiān)督的方式理解高維數(shù)據(jù)并將信息濃縮為有用的表示一直是深度學(xué)習(xí)領(lǐng)域研究的關(guān)鍵問題。其中一種方法是利用非耦合表示(disentangled representations)模型來捕捉場景中獨(dú)立變化的特征。如果能夠?qū)崿F(xiàn)對于各種獨(dú)立特征的描述,機(jī)器學(xué)習(xí)系統(tǒng)就可以用于真實環(huán)境中的導(dǎo)航,機(jī)器人或無人車?yán)眠@種方法可以將環(huán)境解構(gòu)成一系列元素,并利用通用的知識去理解先前未見過的場景。



雖然非監(jiān)督解耦方法已被廣泛應(yīng)用于好奇驅(qū)動的探索、抽象推理、視覺概念學(xué)習(xí)和域適應(yīng)的強(qiáng)化學(xué)習(xí)中,但最近進(jìn)展卻無法讓我們清晰了解不同方法的性能和方法的局限。為了深入探索這一問題,谷歌的研究人員在ICML2019上發(fā)表了一篇大規(guī)模深入研究非監(jiān)督非耦合表示的論文”Challenging Common Assumptions in the Unsupervised Learning of Disentangled Representations”,對近年來絕大多數(shù)的非監(jiān)督解耦表示方法進(jìn)行探索、利用2.5GPU年的算力在7個數(shù)據(jù)集上訓(xùn)練了12000多個模型。基于大規(guī)模的實驗結(jié)果,研究人員對這一領(lǐng)域的一些假設(shè)產(chǎn)生了質(zhì)疑,并為解耦學(xué)習(xí)的未來發(fā)展方向給出了建議。與此同時,研究人員還同時發(fā)布了研究中所使用的代碼和上萬個預(yù)訓(xùn)練模型,并封裝了disentanglement_lib供研究者進(jìn)行實驗復(fù)現(xiàn)和更深入的探索。

理解非耦合表示

為了更好地理解非耦合表示的本質(zhì),讓我一起來看看下面動圖中每個獨(dú)立變化的元素。下面的每一張圖代表了一個可以被編碼到矢量表示中的因子,它可以獨(dú)立控制圖像中每個語義元素的屬性。例如第一個可以控制地板的顏色,第二個則控制墻的顏色,最后一個則控制圖片的視角。

解耦表示的目標(biāo)在于建立起一個能夠獨(dú)立捕捉這些特征的模型,并將這些特征編碼到一個表示矢量中。下面的10個小圖展示了基于FactorVAE方法學(xué)習(xí)十維表示矢量的模型,圖中展示 了每一維對于圖像對應(yīng)信息的捕捉。從各個圖中可以看出模型成功地解耦了地板、墻面的顏色,但是左下角的兩個圖片可以看到物體的顏色和大小的表示卻依然相關(guān)沒有解耦。

大規(guī)模研究的發(fā)現(xiàn)

在直觀地理解了解耦表示之后,讓我們來看看科學(xué)家在研究中發(fā)現(xiàn)了什么。這一領(lǐng)域基于變分自編碼器提出了各種各樣的非監(jiān)督方法來學(xué)習(xí)非耦合表示,同時給出了許多不同的性能度量方法,但卻缺乏一個大規(guī)模的性能測評和對比研究。為此研究人員構(gòu)建了一個大規(guī)模、公平性、可復(fù)現(xiàn)的實驗基準(zhǔn),并系統(tǒng)的測試了六種不同的模型(BetaVAE, AnnealedVAE, FactorVAE, DIP-VAE I/II and Beta-TCVAE)和解耦性能度量方法(BetaVAE score, FactorVAE score, MIG, SAP, Modularity and DCI Disentanglement),在7個數(shù)據(jù)集上進(jìn)行了12800個模型的訓(xùn)練后,研究人員們有了顛覆過去的發(fā)現(xiàn):首先,是非監(jiān)督學(xué)習(xí)的方式。研究人員在大量的實驗后發(fā)現(xiàn)沒有可靠的證據(jù)表明模型可以通過無監(jiān)督的方式學(xué)習(xí)到有效的解耦表示,隨機(jī)種子和超參數(shù)對于結(jié)構(gòu)的影響甚至超過了模型的選擇。換句話說,即使你訓(xùn)練的大量模型中有部分是解耦的,但這些解耦表示在不基于基準(zhǔn)標(biāo)簽的情況下是無從確認(rèn)和識別的。此外好的超參數(shù)在不同的數(shù)據(jù)集上并不一致,這意味著沒有歸納偏置(inductive biases)是無法實現(xiàn)非監(jiān)督解耦學(xué)習(xí)的(需要把對數(shù)據(jù)集的假設(shè)考慮進(jìn)模型中)。對于實驗中評測的模型和數(shù)據(jù)集,研究人員表示無法驗證解耦對于downstream tasks任務(wù)有利的假設(shè)(這一假設(shè)認(rèn)為基于解耦表示可以利用更少的標(biāo)簽來進(jìn)行學(xué)習(xí))。下圖展示了研究中的一些發(fā)現(xiàn),可以看到隨機(jī)種子在運(yùn)行中的影響超過了模型的選擇(左)和正則化(右)的強(qiáng)度(更強(qiáng)的正則化并沒有帶來更多的解耦性能)。這意味著很差超參數(shù)作用下的好模型也許比很好超參數(shù)作用下的壞模型要好得多。

未來研究方向

基于這些全新的發(fā)現(xiàn)和研究結(jié)果,研究人員為解耦表示領(lǐng)域提出了四個可能的方向:1.在沒有歸納偏置的條件下給出非監(jiān)督解耦表示學(xué)習(xí)的理論結(jié)果是不可能的,未來的研究應(yīng)該更多地集中于歸納偏置的研究以及隱式和顯示監(jiān)督在學(xué)習(xí)中所扮演的角色;2.為橫跨多數(shù)據(jù)集的非監(jiān)督模型尋找一個有效的歸納偏置將會成為關(guān)鍵的開放問題;3.應(yīng)該強(qiáng)調(diào)解耦學(xué)習(xí)在各個特定領(lǐng)域所帶來的實際應(yīng)用價值,潛在的應(yīng)用方向包括機(jī)器人、抽象推理和公平性等;4.在各種多樣性數(shù)據(jù)集上的實驗應(yīng)該保證可重復(fù)性。

代碼和工具包

為了讓其他研究人員更好的復(fù)現(xiàn)結(jié)構(gòu),論文同時還發(fā)布了 disentanglement_lib工具包,其中包含了實驗所需的模型、度量、訓(xùn)練、預(yù)測以及可視化代碼工具。可以在命令行中用不到四行代碼就能復(fù)現(xiàn)是論文中所提到的模型,也可以方便地改造來驗證新的假設(shè)。最后 disentanglement_lib庫易于拓展和集成,易于創(chuàng)建新的模型,并用公平的可復(fù)現(xiàn)的比較進(jìn)行檢驗。由于復(fù)現(xiàn)所有的模型訓(xùn)練需要2.5GPU年的算力,所以研究人員同時開放了論文中提到的一萬多個預(yù)訓(xùn)練模型可以配合前述工具使用。如果想要使用這個工具可以在這里找到源碼:

https://github.com/google-research/disentanglement_lib

其中包含了以下內(nèi)容:模型:BetaVAE, FactorVAE, BetaTCVAE, DIP-VAE度量:BetaVAE score, FactorVAE score, Mutual Information Gap, SAP score, DCI, MCE數(shù)據(jù)集:dSprites, Color/Noisy/Scream-dSprites, SmallNORB, Cars3D, and Shapes3D預(yù)訓(xùn)練模型:10800 pretrained disentanglement models依賴包:TensorFlow, Scipy, Numpy, Scikit-Learn, TFHub and Gin

git clone https://github.com/google-research/disentanglement_lib.git #下載gitcd disentanglement_lib #轉(zhuǎn)到源碼目錄pip install .[tf_gpu] #安裝依賴文件dlib_tests #驗證安裝

隨后下載對應(yīng)的數(shù)據(jù)文件:

dlib_download_data#在.bashrc寫入路徑export DISENTANGLEMENT_LIB_DATA=

隨后就可以愉快地復(fù)現(xiàn)實驗了,其中?是0-12599間的模型序號:dlib_reproduce --model_num=進(jìn)行評測:dlib_aggregate_results

相信這篇文章的研究結(jié)果和代碼工具將為接下來的研究提供更為明確的方向和便捷的途徑,促進(jìn)非耦合表示學(xué)習(xí)領(lǐng)域的發(fā)展。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 谷歌
    +關(guān)注

    關(guān)注

    27

    文章

    6223

    瀏覽量

    107562
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4912

    瀏覽量

    130676
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1223

    瀏覽量

    25281

原文標(biāo)題:耗時2.5GPU年訓(xùn)練12800個模型,谷歌研究人員揭示非耦合表示的奧秘

文章出處:【微信號:thejiangmen,微信公眾號:將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    AI訓(xùn)練,為什么需要GPU

    隨著由ChatGPT引發(fā)的人工智能熱潮,GPU成為了AI大模型訓(xùn)練平臺的基石,甚至是決定性的底座。為什么
    的頭像 發(fā)表于 04-24 08:05 ?1075次閱讀
    AI<b class='flag-5'>訓(xùn)練</b>,為什么需要<b class='flag-5'>GPU</b>?

    名單公布!【書籍評測活動NO.43】 芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析

    全球范圍內(nèi),對于推動科技進(jìn)步、經(jīng)濟(jì)發(fā)展及社會整體的運(yùn)作具有至關(guān)重要的作用。隨著信息技術(shù)的高速發(fā)展,高性能計算(HPC)和人工智能(AI)等技術(shù)多個領(lǐng)域的應(yīng)用變得日益廣泛,芯片
    發(fā)表于 09-02 10:09

    【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗】--全書概覽

    GPU、NPU,給我們剖析了芯片的微架構(gòu)。書中有對芯片方案商處理器的講解,理論聯(lián)系實際,使讀者能更好理解芯片。 全書共11章,
    發(fā)表于 10-15 22:08

    【「芯片 | 高性能 CPU/GPU/NPU 微架構(gòu)分析」閱讀體驗】--了解芯片GPU

    從而充分利用 GPU的強(qiáng)大計算能力。CUDA編程模型中,GPU的計算資源被組織為線期線程塊和線程網(wǎng)格3級。線程是基本的執(zhí)行單元,線程塊是包
    發(fā)表于 11-03 12:55

    請問如何在imx8mplus上部署和運(yùn)行YOLOv5訓(xùn)練模型

    我正在從事 imx8mplus yocto 項目。我已經(jīng)自定義數(shù)據(jù)的 YOLOv5 訓(xùn)練了
    發(fā)表于 03-25 07:23

    數(shù)據(jù)、算法和其實現(xiàn)載體是什么

    背景介紹數(shù)據(jù)、算法和是人工智能技術(shù)的三大要素。其中,體現(xiàn)著人工智能(AI)技術(shù)具體實現(xiàn)的能力,實現(xiàn)載體主要有CPU、
    發(fā)表于 07-26 06:47

    Ubuntu使用Nvidia GPU訓(xùn)練模型

    問題最近在Ubuntu使用Nvidia GPU訓(xùn)練模型的時候,沒有問題,過一會再訓(xùn)練出現(xiàn)非常卡頓,使用nvidia-smi查看發(fā)現(xiàn),顯示
    發(fā)表于 01-03 08:24

    索尼發(fā)布新的方法,ImageNet數(shù)據(jù)224秒內(nèi)成功訓(xùn)練了ResNet-50

    近年來,許多研究人員提出了多種方案來解決這兩問題(見原文參考文獻(xiàn))。這些工作利用ImageNet/ResNet-50訓(xùn)練來衡量訓(xùn)練效果。ImageNet/ResNet-50分別是最流
    的頭像 發(fā)表于 11-16 10:01 ?9992次閱讀

    GPU如何訓(xùn)練大批量模型?方法在這里

    深度學(xué)習(xí)模型數(shù)據(jù)的規(guī)模增長速度已經(jīng)讓 GPU 也開始捉襟見肘,如果你的
    發(fā)表于 12-03 17:24 ?961次閱讀

    ICML 2019最佳論文新鮮出爐!

    這是一篇大規(guī)模深入研究無監(jiān)督解耦表示(Disentangled Representation)的論文,對近年來絕大多數(shù)的非監(jiān)督解耦表示方法進(jìn)行了探索、利用 2.5GPU
    的頭像 發(fā)表于 06-15 10:02 ?5452次閱讀

    夯實基礎(chǔ) 賦能大模型創(chuàng)新發(fā)展

    《 國產(chǎn) GPU的大模型實踐 》 的主題演講 , 全面介紹了天數(shù)智芯 通用 GPU產(chǎn)品特色 以及 模型
    的頭像 發(fā)表于 07-17 22:25 ?769次閱讀
    夯實<b class='flag-5'>算</b><b class='flag-5'>力</b>基礎(chǔ)  賦能大<b class='flag-5'>模型</b>創(chuàng)新發(fā)展

    20個數(shù)據(jù)可以訓(xùn)練神經(jīng)網(wǎng)絡(luò)嗎

    當(dāng)然可以,20個數(shù)據(jù)點(diǎn)對于訓(xùn)練神經(jīng)網(wǎng)絡(luò)來說可能非常有限,但這并不意味著它們不能用于訓(xùn)練。實際,神經(jīng)網(wǎng)絡(luò)可以
    的頭像 發(fā)表于 07-11 10:29 ?1701次閱讀

    【一文看懂】大白話解釋“GPUGPU

    隨著大模型的興起,“GPU”這個詞正頻繁出現(xiàn)在人工智能、游戲、圖形設(shè)計等工作場景中,什么是GPU,它與CPU的區(qū)別是什么?以及到底什么是
    的頭像 發(fā)表于 10-29 08:05 ?2275次閱讀
    【一文看懂】大白話解釋“<b class='flag-5'>GPU</b>與<b class='flag-5'>GPU</b><b class='flag-5'>算</b><b class='flag-5'>力</b>”

    PyTorch GPU 加速訓(xùn)練模型方法

    深度學(xué)習(xí)領(lǐng)域,GPU加速訓(xùn)練模型已經(jīng)成為提高訓(xùn)練效率和縮短訓(xùn)練時間的重要手段。PyTorch作
    的頭像 發(fā)表于 11-05 17:43 ?1265次閱讀

    搭建中心,從了解的GPU 特性開始

    的需求也不斷攀升。無論是企業(yè)進(jìn)行數(shù)據(jù)分析、模型訓(xùn)練,還是科研機(jī)構(gòu)開展復(fù)雜的科學(xué)計算,都需
    的頭像 發(fā)表于 04-24 11:08 ?508次閱讀
    搭建<b class='flag-5'>算</b><b class='flag-5'>力</b>中心,從了解的<b class='flag-5'>GPU</b> 特性開始