女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

何愷明、Ross Girshick等大神深夜扔出“炸彈”:ImageNet預訓練并非必須

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-11-24 10:09 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

何愷明、Ross Girshick等大神深夜扔出“炸彈”:ImageNet預訓練并非必須。大神們使用隨機初始化變得到了媲美COCO冠軍的結果,無情顛覆“預訓練+微調”思維定式——再看此前預訓練與此后微調所付出的種種,嗚呼哀哉,好不苦矣!

ImageNet 有用嗎?

當然有用。

但 ImageNet 預訓練卻并非必須!

剛剛,何愷明等人在arxiv貼出一篇重磅論文,題為《重新思考“ImageNet預訓練”》,讓似乎本已經平靜的ImageNet湖面,再掀波瀾!

Facebook 人工智能研究所何愷明、Ross Cirshick 和 Piotr Dollar 三人在arxiv上貼出最新論文:重新思考ImageNet預訓練

過去幾年來,使用ImageNet這套大規模數據集進行預訓練的視覺模型,對于執行計算機視覺任務而言都是必不可少的存在。雖然并沒用多少時間,但人們似乎都默認,計算機視覺任務需要使用ImageNet預訓練模型。

然而,何愷明等人卻站出來說——不!

ImageNet 預訓練模型并非必須,ImageNet 能做的只是加速收斂,對最終物體檢測的精度或實例分割的性能并無幫助。

他們使用隨機初始化的模型,不借助外部數據,取得了不遜于COCO 2017冠軍的結果。

大神不愧為大神——此前我們預訓練ImageNet模型再辛辛苦苦微調,都是為了什么?!

不用ImageNet預訓練,隨機初始化就能媲美COCO冠軍!

何愷明等人研究表明,在COCO數據集上進行隨機初始化訓練,其效果能做到不次于在ImageNet上進行預訓練。

而且,即使只用COCO中10%的訓練數據進行訓練,依然有可能實現上述結果。

他們還發現,可以在相當于ImageNet規模4倍大的數據集上,使用隨機初始化訓練,而結果不發生過擬合。

圖1:我們在COCO train2017數據集上使用ResNet-50 FPN[26]和GroupNorm[48]訓練Mask R-CNN[13],并在val2017數據集上評估邊界框AP,通過隨機權重或ImageNet預訓練初始化模型。我們通過改變學習率降低(準確率提高)的迭代來探索不同的訓練計劃。從隨機初始化訓練出來的模型需要更多的迭代來收斂,但是只收斂到一個與finetuning相似的解決方案。

實驗表明,ImageNet的預訓練在訓練的早期加速了收斂,但并不一定提供正則化或提高最終目標任務的精度。

具體說,何愷明等人通過實驗觀察到以下情況:

1、ImageNet預訓練方式加快了收斂速度,特別是在訓練早期,但隨機初始化訓練可以在訓練一段時間后趕上來。考慮到前者還要進行模型的微調,訓練總時間二者大體相當。由于在研究目標任務時經常忽略ImageNet預訓練的成本,因此采用短期訓練進行的“對照”比較可能會掩蓋隨機初始化訓練的真實表現。

2、ImageNet預訓練不能自動提供性能更優的正則化。在使用較少的圖像(不到COCO數據集的10%)進行訓練時,我們發現必須選擇新的超參數進行微調(來自預訓練)以避免過度擬合。當用這些同樣的超參數進行隨機初始化訓練時,該模型精度可以達到預訓練模型的水平,無需任何額外的正則化處理。

3、當目標任務或指標對空間定位預測更敏感時,ImageNet預訓練模型沒有表現出任何優勢。我們觀察到,采用隨機初始化訓練時,預測性能出現明顯改善。我們還發現,采用隨機初始化訓練的收斂速度也較預訓練模型快。直觀地說,基于分類任務的類ImageNet的預訓練方式,與本地化的敏感目標任務之間的任務間存在鴻溝,這可能會限制預訓練模型的優勢。

有沒有ImageNet預訓練,區別真沒那么大

作者在論文中寫道,他們的結果挑戰了ImageNet對依賴任務進行預訓練的傳統思想,他們的發現將鼓勵人們重新思考當前計算機視覺中“預訓練和微調”的“范式”。

那么,完全從零開始訓練,與使用ImageNet預訓練相比,最大的不同在哪里呢?

答案是“時間”。

使用ImageNet做預訓練的模型已經具備了邊緣、紋理等低級表征,而完全從零開始訓練的模型需要迭代更久,因此需要更多的訓練時間。

但是,從所需要的訓練樣本的像素(而非實例數)來看,隨機初始化與使用ImageNet預訓練,兩者其實相差不太多。

圖2:在所有訓練迭代中看到的圖像、實例和像素的總數,分別表示預訓練+微調(綠色條)vs.隨機初始化(紫色條)。我們考慮到ImageNet預訓練需要100 epochs,fine-tuning采用2× schedule (~24 epochs over COCO),隨機初始化采用6× schedule (~72 epochs over COCO)。我們計算ImageNet實例為1 per image (COCO是~7),和ImageNet像素為224×224,COCO為800×1333。

下圖展示了另一個例子,使用隨機初始化(深紅和深綠)和ImageNet預訓練(淺紅和淺綠),在多種情況下,兩者的結果都是可比的。

區別大嗎?

真的沒有那么大!

圖5:使用Mask R-CNN對不同系統進行隨機初始化與預訓練的比較,包括:(i)使用FPN和GN的baseline,(ii)使用訓練時間多尺度增強的baseline,(iii)使用Cascade RCNN[3]和訓練時間增強的baseline,以及(iv)加上測試時間多尺度增強的baseline。上圖:R50;下圖R101。

此論文實驗部分寫得非常漂亮,了解詳情推薦閱讀原文(地址見文末)。

“ImageNet時代完結”,從零開始訓練完全可行

何愷明等人在這篇論文中,探討了以下幾點:

無需更改架構,就能對目標任務進行從頭開始的訓練。

從頭開始訓練需要更多的迭代,以充分收斂。

在許多情況下,從頭開始的訓練并不比ImageNet預訓練的同個模型差,甚至在只有10k COCO圖像的情況下也是如此。

ImageNet預訓練加速了目標任務的收斂。

ImageNet預訓練不一定有助于減少過擬合,除非數據量真的非常小。

如果目標任務對定位比對分類更敏感,那么ImageNet預訓練的幫助較小。

從目前的文獻來看,這些結果是令人驚訝的,并對當前凡是計算機視覺任務就先拿ImageNet來預訓練的做法不啻一記當頭棒喝。

這些結果表明,當沒有足夠的目標數據或計算資源來對目標任務進行訓練時,ImageNet預訓練方式是一種基于“歷史”的解決方法(并且可能會持續一段時間)。

現在看,ImageNet標注方便、應用廣泛,似乎是“免費”資源,拿來用即可。

但不是的,拋開構建ImageNet花費了多少人力物力和時間不說,對于某些任務而言,如果目標數據與ImageNet相差太大,用在微調ImageNet預訓練模型上的時間和精力,還不如直接從頭開始訓練。

這項工作也并非要我們徹底拋棄預訓練模型,而是表明(至少視覺檢測任務)除了用 ImageNet 預訓練之外,還存在另一種訓練方式,從零開始訓練也完全可以。

這篇論文貼出來沒多久,知乎上便出現了討論“如何評價何愷明等 arxiv 新作 Rethinking ImageNet Pre-training?”

截止發稿前,點贊最高的回答來自中科院計算所博士“王晉東不在家”:

我不是排斥使用ImageNet pretrained network,我只是覺得,應該找一些領域,讓ImageNet真正有用。不妨試試用這些預訓練好的網絡去進行醫學圖像分類、極端圖像(低分辨率、逆光、精細圖像、衛星)分類,這才是ImageNet的正確價值。

不過,欣喜的是,也有一批采用了淺層網絡,或者是加入對抗機制的淺層網絡,在最近的頂會上有所突破。

不能一直隨大流,是時候重新思考了。

另一位計算機視覺從業者mileistone也表示:

深度學習領域理論發展慢于應用,像“train from scratch”類似的common practice很多,這些common practice很多沒有理論支撐,我們也沒法判斷有沒有道理,我們只知道大家都這么用。因為可質疑的地方太多了,我們很容易失去獨立思考的能力。

希望更多的“rethink”文章出來,這些文章像鯰魚一樣,持續激發深度學習領域的活力。

何愷明等人認為,他們的論文和實驗表明,隨機初始化也有可能生成媲美COCO冠軍的結果,正因如此,計算機視覺從業者才更應該慎待預訓練特征。

計算機視覺的通用表征,仍然值得我們去追求。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 計算機視覺
    +關注

    關注

    9

    文章

    1708

    瀏覽量

    46771
  • 數據集
    +關注

    關注

    4

    文章

    1224

    瀏覽量

    25445
  • 深度學習
    +關注

    關注

    73

    文章

    5561

    瀏覽量

    122789

原文標題:何愷明拋出重磅炸彈!ImageNet并非必要

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    基于不同量級訓練數據的RoBERTa模型分析

    NLP領域的研究目前由像RoBERTa經過數十億個字符的語料經過訓練的模型匯主導。那么對于一個訓練模型,對于不同量級下的
    發表于 03-03 11:21 ?2230次閱讀

    【大語言模型:原理與工程實踐】大語言模型的訓練

    數據格式的轉換、數據字段的匹配和整合。通過數據級凈化,可以進一步提高數據的質量和可用性,為后續的數據分析和建模提供更有價值的數據支持。 在得到了大語言模型的數據之后,就是對其進行訓練。大圓模型擁有
    發表于 05-07 17:10

    索尼發布新的方法,在ImageNet數據集上224秒內成功訓練了ResNet-50

    近年來,許多研究人員提出了多種方案來解決這兩個問題(見原文參考文獻)。這些工作利用ImageNet/ResNet-50訓練來衡量訓練效果。ImageNet/ResNet-50分別是最流
    的頭像 發表于 11-16 10:01 ?1w次閱讀

    ResNet原始結果無法復現?大神受到了質疑

    但是,如果只是簡單地將層堆疊在一起,增加網絡的深度并不會起太大作用。這是由于難搞的梯度消失(vanishing gradient)問題,深層的網絡很難訓練。因為梯度反向傳播到前一層,重復相乘可能使梯度無窮小。結果就是,隨著網絡的層數更深,其性能趨于飽和,甚至開始迅速下降。
    的頭像 發表于 04-19 11:21 ?1.9w次閱讀
    ResNet原始結果無法復現?<b class='flag-5'>大神</b><b class='flag-5'>何</b><b class='flag-5'>愷</b><b class='flag-5'>明</b>受到了質疑

    新的訓練方法——MASS!MASS訓練幾大優勢!

    專門針對序列到序列的自然語言生成任務,微軟亞洲研究院提出了新的訓練方法:屏蔽序列到序列訓練(MASS: Masked Sequence to Sequence Pre-traini
    的頭像 發表于 05-11 09:34 ?7608次閱讀
    新的<b class='flag-5'>預</b><b class='flag-5'>訓練</b>方法——MASS!MASS<b class='flag-5'>預</b><b class='flag-5'>訓練</b>幾大優勢!

    騰訊開源首個3D醫療影像大數據訓練模型

    自然圖像領域中存在著許多海量數據集,如ImageNet,MSCOCO。基于這些數據集產生的訓練模型推動了分類、檢測、分割應用的進步。
    發表于 08-20 15:03 ?2097次閱讀

    華為扔出一顆重磅炸彈:華為云手機,橫空出世!

    山窮水盡疑無路,柳暗花又一春! 9月1日,華為突然扔出一顆重磅炸彈:華為云手機,橫空出世! 看吧,華為首創全球首個 ARM 芯片的 云手機 , 今天正式公測了,在一個月公測期,價值 5950 元
    的頭像 發表于 09-11 12:05 ?7420次閱讀

    小米在訓練模型的探索與優化

    導讀:訓練模型在NLP大放異彩,并開啟了訓練-微調的NLP范式時代。由于工業領域相關業務的復雜性,以及工業應用對推理性能的要求,大規模
    的頭像 發表于 12-31 10:17 ?2977次閱讀
    小米在<b class='flag-5'>預</b><b class='flag-5'>訓練</b>模型的探索與優化

    Multilingual多語言訓練語言模型的套路

    Facebook在Crosslingual language model pretraining(NIPS 2019)一文中提出XLM訓練多語言模型,整體思路基于BERT,并提出了針對多語言
    的頭像 發表于 05-05 15:23 ?3405次閱讀

    利用視覺語言模型對檢測器進行訓練

    訓練通常被用于自然語言處理以及計算機視覺領域,以增強主干網絡的特征提取能力,達到加速訓練和提高模型泛化性能的目的。該方法亦可以用于場景文本檢測當中,如最早的使用ImageNet
    的頭像 發表于 08-08 15:33 ?1724次閱讀

    什么是訓練 AI 模型?

    訓練 AI 模型是為了完成特定任務而在大型數據集上訓練的深度學習模型。這些模型既可以直接使用,也可以根據不同行業的應用需求進行自定義。 如果要教一個剛學會走路的孩子什么是獨角獸,那么我們首先應
    的頭像 發表于 04-04 01:45 ?1881次閱讀

    什么是訓練AI模型?

    訓練 AI 模型是為了完成特定任務而在大型數據集上訓練的深度學習模型。這些模型既可以直接使用,也可以根據不同行業的應用需求進行自定義。
    的頭像 發表于 05-25 17:10 ?1466次閱讀

    PyTorch教程-15.9。訓練 BERT 的數據集

    模型可能不適合醫學特定領域的應用。因此,在自定義數據集上訓練 BERT 變得越來越流行。為了便于演示 BERT 訓練,我們使用較小的
    的頭像 發表于 06-05 15:44 ?1077次閱讀

    訓練模型的基本原理和應用

    訓練模型(Pre-trained Model)是深度學習和機器學習領域中的一個重要概念,尤其是在自然語言處理(NLP)和計算機視覺(CV)領域中得到了廣泛應用。
    的頭像 發表于 07-03 18:20 ?4491次閱讀

    大語言模型的訓練

    能力,逐漸成為NLP領域的研究熱點。大語言模型的訓練是這一技術發展的關鍵步驟,它通過在海量無標簽數據上進行訓練,使模型學習到語言的通用知識,為后續的任務微調奠定基礎。本文將深入探討大語言模型
    的頭像 發表于 07-11 10:11 ?975次閱讀