女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通過(guò)Logit調(diào)整的長(zhǎng)尾學(xué)習(xí)

倩倩 ? 來(lái)源:GiantPandaCV ? 作者:GiantPandaCV ? 2022-09-05 14:28 ? 次閱讀

1. 論文信息

標(biāo)題:Long-Tail Learning via Logit Adjustment

作者:Aditya Krishna Menon, Sadeep Jayasumana, Ankit Singh Rawat, Himanshu Jain, Andreas Veit, Sanjiv Kumar (Google Research)

原文鏈接:https://arxiv.org/abs/2007.07314

代碼鏈接:https://github.com/google-research/google-research/tree/master/logit_adjustment

2. 介紹

在傳統(tǒng)的分類(lèi)和識(shí)別任務(wù)中,訓(xùn)練數(shù)據(jù)的分布往往都受到了人工的均衡,即不同類(lèi)別的樣本數(shù)量無(wú)明顯差異,如最有影響力的ImageNet,每種類(lèi)別的樣本數(shù)量就保持在1300張左右。

aece2de2-2cd9-11ed-ba43-dac502259ad0.jpg

在實(shí)際的視覺(jué)相關(guān)任務(wù)中,數(shù)據(jù)都存在如上圖所示的長(zhǎng)尾分布,少量類(lèi)別占據(jù)了絕大多少樣本,如圖中Head部分,大量的類(lèi)別僅有少量的樣本,如圖中Tail部分。解決長(zhǎng)尾問(wèn)題的方案一般分為4種:

重采樣 (Re-sampling):采樣過(guò)程中采樣不同的策略,如對(duì)tail中的類(lèi)別樣本進(jìn)行過(guò)采樣,或者對(duì)head類(lèi)別樣本進(jìn)行欠采樣。

重加權(quán) (Re-weighting):在訓(xùn)練過(guò)程中給與每種樣本不同的權(quán)重,對(duì)tail類(lèi)別loss設(shè)置更大的權(quán)重,這樣有限樣本數(shù)量。

新的學(xué)習(xí)策略 (Learning strategy):有專(zhuān)門(mén)為解決少樣本問(wèn)題涉及的學(xué)習(xí)方法可以借鑒,如:meta-learning、transfer learning。另外,還可以調(diào)整訓(xùn)練策略,將訓(xùn)練過(guò)程分為兩步:第一步不區(qū)分head樣本和tail樣本,對(duì)模型正常訓(xùn)練;第二步,設(shè)置小的學(xué)習(xí)率,對(duì)第一步的模型使用各種樣本平衡的策略進(jìn)行finetune。

其實(shí)就筆者喜歡的風(fēng)格而言,我對(duì)重加權(quán)這一方向的工作更為喜歡,因?yàn)橥ㄟ^(guò)各種統(tǒng)計(jì)學(xué)上的結(jié)論,來(lái)設(shè)計(jì)很好的loss改進(jìn)來(lái)解決長(zhǎng)尾/不均衡分布問(wèn)題,我喜歡這類(lèi)研究的原因是,他們(大部分)實(shí)現(xiàn)簡(jiǎn)單,往往只需幾行代碼修改下loss,就可以取得非常有競(jìng)爭(zhēng)力的結(jié)果,因?yàn)楹?jiǎn)單所以很容易運(yùn)用到一些復(fù)雜的任務(wù)中。

而從“奧卡姆剃刀”來(lái)看,我覺(jué)得各種遷移模型的理念雖然非常好,從頭部常見(jiàn)類(lèi)中學(xué)習(xí)通用知識(shí),然后遷移到尾部少樣本類(lèi)別中,但是往往會(huì)需要設(shè)計(jì)復(fù)雜的模塊,有增加參數(shù)實(shí)現(xiàn)過(guò)擬合的嫌疑,我認(rèn)為這其實(shí)是把簡(jiǎn)單問(wèn)題復(fù)雜化。我覺(jué)得從統(tǒng)計(jì)方面來(lái)設(shè)計(jì)更加優(yōu)美,因此本文來(lái)介紹一篇我非常喜歡的從統(tǒng)計(jì)角度出發(fā)的工作。這篇論文來(lái)自Google Research,他們提供了一種logit的調(diào)整方法來(lái)應(yīng)對(duì)長(zhǎng)尾分布的問(wèn)題。由于研究風(fēng)格更偏向 machine learning, 所以論文風(fēng)格更偏向統(tǒng)計(jì)類(lèi)。

本文首先總結(jié)了對(duì)于logit的調(diào)整方法:

聚焦于測(cè)試階段:對(duì)學(xué)習(xí)完的logit輸出進(jìn)行處理(post-hoc normalization),根據(jù)一些先驗(yàn)假設(shè)進(jìn)行調(diào)整。

聚焦于訓(xùn)練階段:在學(xué)習(xí)中調(diào)整loss函數(shù),相對(duì)平衡數(shù)據(jù)集來(lái)說(shuō),調(diào)整優(yōu)化的方向。

aeddeafc-2cd9-11ed-ba43-dac502259ad0.png

如上圖,這兩種方法都有許多較為優(yōu)秀的工作,但是文中描述了這兩種方法的幾種限制:

weight normalization非常依賴(lài)于weight的模長(zhǎng)會(huì)因?yàn)閏lass的data數(shù)量稀少而變小,然而這種假設(shè)非常依賴(lài)于優(yōu)化器的選擇

直接修改loss進(jìn)行重加權(quán),也會(huì)影響模型的表征學(xué)習(xí),從而導(dǎo)致優(yōu)化過(guò)程不穩(wěn)定,同時(shí)模型可能對(duì)尾部類(lèi)過(guò)擬合,傷害了模型表征學(xué)習(xí)能力。

論文的motivation就是克服這些缺點(diǎn),讓不同類(lèi)(head and tail classed)之間的logit能有一個(gè)相對(duì)較大的margin,設(shè)以一個(gè)consistent的loss,來(lái)讓模型的性能更好。

3. 問(wèn)題設(shè)定和過(guò)往方法回顧

3.1 Problem Settings

論文先從統(tǒng)計(jì)學(xué)的角度定義了一下這個(gè)problem settings,其實(shí)就是訓(xùn)練一個(gè)映射,讓這個(gè)scorer的誤分類(lèi)損失最小:

但是類(lèi)別不平衡的學(xué)習(xí)的setting導(dǎo)致P(y)分布是存在高度地skewed,使得許多尾部類(lèi)別標(biāo)簽出現(xiàn)的概率很低。在這里,錯(cuò)誤分類(lèi)的比例就不是一個(gè)合適的metric: 因?yàn)槟P退坪醢阉械奈膊款?lèi)別都分類(lèi)成頭部類(lèi)別也更夠取得比較好的效果。所為了解決這個(gè)問(wèn)題,一個(gè)自然的選擇是平衡誤差,平均每個(gè)類(lèi)的錯(cuò)誤率,從而讓測(cè)試計(jì)算出的metric不是有偏的。

論文總結(jié)出了一個(gè)比較general的loss形式:

這里 是類(lèi)別 yy 的權(quán)重;是另一個(gè)超參, 用來(lái)控制 margin 的大小。

3.2Post-hoc weight normalization

由于頭部類(lèi)別多,容易過(guò)擬合,自然會(huì)對(duì)頭部類(lèi)別overconfidence,所以我們需要通過(guò)一定的映射來(lái)調(diào)整logit。具體到調(diào)整的策略,自然是讓大類(lèi)置信度低一點(diǎn),小類(lèi)置信度高一點(diǎn)。

for , where and . Intuitively, either choice of upweights the contribution of rare labels through weight normalisation. The choice is motivated by the observations that tends to correlate with . Further to the above, one may enforce during training.

這里引用了一些其他做long-tail learning的論文,可以參考以便更好地對(duì)這一塊進(jìn)行理解。

3.3 Loss modification

至于對(duì)于loss的修改,就是很直接了在前面加一個(gè)權(quán)重,對(duì)于的取值,自然就是各個(gè)工作重點(diǎn)關(guān)注和改進(jìn)的地方。

af02f478-2cd9-11ed-ba43-dac502259ad0.png

論文給予原有的各種方法各種比較全面的總結(jié)。

4. 方法

首先進(jìn)行Post-hoc logit adjustment:

其實(shí)等號(hào)左邊就是一個(gè)根據(jù)類(lèi)別的樣本數(shù)進(jìn)行re-weighting。但是為了在exp的線性變換加上temperature時(shí)候不影響排序問(wèn)題,所以把等號(hào)右邊變成上式,通過(guò)這種方式放縮不會(huì)導(dǎo)致原本的排序出現(xiàn)問(wèn)題。從而使得重加權(quán)仍能夠給尾部類(lèi)更高的權(quán)重。

af2dc766-2cd9-11ed-ba43-dac502259ad0.png

把loss改寫(xiě)成易于理解的方式就如下:

下面這個(gè)更為直接的loss被成為為pairwise margin loss,它可以把 y 與 y' 之間的margin拉大。

然后就是實(shí)現(xiàn)結(jié)合:

af47e862-2cd9-11ed-ba43-dac502259ad0.png

通過(guò)一些特殊的取值和另外的trick,可以實(shí)現(xiàn)兩者的結(jié)合。

5. 實(shí)驗(yàn)結(jié)果

af5f3152-2cd9-11ed-ba43-dac502259ad0.png

這張圖非常有意思,可以看出兩個(gè)設(shè)計(jì)理念非常有效果。

af842f0c-2cd9-11ed-ba43-dac502259ad0.png

afa47d2a-2cd9-11ed-ba43-dac502259ad0.png

可以發(fā)現(xiàn)該方法在頭部類(lèi)和尾部類(lèi)的性能都有所提升。

6. 結(jié)論

摘要:這篇寫(xiě)得很好的論文重新審視了logit調(diào)整的想法,以解決長(zhǎng)尾問(wèn)題。本文首先建立了一個(gè)統(tǒng)計(jì)框架,并以此為基礎(chǔ)提出了兩種有效實(shí)現(xiàn)對(duì)數(shù)平差的方法。他們通過(guò)在合成和自然長(zhǎng)尾數(shù)據(jù)集上使用幾個(gè)相關(guān)基線對(duì)其進(jìn)行測(cè)試,進(jìn)一步證明了這種方法的潛力。

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 線性
    +關(guān)注

    關(guān)注

    0

    文章

    200

    瀏覽量

    25525
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3487

    瀏覽量

    49998
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1223

    瀏覽量

    25278
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    電源管理芯片U3205A擁有良好的線性調(diào)整率和負(fù)載調(diào)整

    電源管理芯片U3205A擁有良好的線性調(diào)整率和負(fù)載調(diào)整率銀聯(lián)寶電源管理芯片U3205A通過(guò)實(shí)時(shí)監(jiān)測(cè)負(fù)載狀態(tài),自動(dòng)調(diào)節(jié)MOSFET的開(kāi)關(guān)頻率,輕載或空載時(shí)?降低頻率?(如待機(jī)狀態(tài)),減少開(kāi)關(guān)損耗,典型
    的頭像 發(fā)表于 04-17 16:26 ?210次閱讀
    電源管理芯片U3205A擁有良好的線性<b class='flag-5'>調(diào)整</b>率和負(fù)載<b class='flag-5'>調(diào)整</b>率

    模擬示波器的波形顯示可以調(diào)整哪些參數(shù)?

    放大或縮小波形的垂直幅度,使波形在屏幕上顯示得更大或更小。 調(diào)整方法:通過(guò)旋轉(zhuǎn)垂直靈敏度旋鈕或輸入數(shù)值進(jìn)行調(diào)整。 垂直位置(Vertical Position) 定義:波形在垂直方向上的位置。 作用
    發(fā)表于 04-02 14:41

    DLPC3433的gain具體是通過(guò)調(diào)整什么來(lái)實(shí)現(xiàn)的?

    我看規(guī)格書(shū)說(shuō)是能調(diào)整R、G、B顏色通道的gain,這個(gè)gain具體是通過(guò)調(diào)整什么來(lái)實(shí)現(xiàn)的?是每個(gè)顏色通道里面的DMD占空比嗎?
    發(fā)表于 02-26 07:48

    如何優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)

    訓(xùn)練過(guò)程中發(fā)生震蕩,甚至無(wú)法收斂到最優(yōu)解;而過(guò)小的學(xué)習(xí)率則會(huì)使模型收斂速度緩慢,容易陷入局部最優(yōu)解。因此,正確設(shè)置和調(diào)整學(xué)習(xí)率對(duì)于訓(xùn)練高效、準(zhǔn)確的神經(jīng)網(wǎng)絡(luò)模型至關(guān)重要。 二、學(xué)習(xí)率優(yōu)化
    的頭像 發(fā)表于 02-12 15:51 ?764次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    ),是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過(guò)反向傳播算法進(jìn)行訓(xùn)練。BP神經(jīng)網(wǎng)絡(luò)由輸入層、一個(gè)或多個(gè)隱藏層和輸出層組成,通過(guò)逐層遞減的方式調(diào)整網(wǎng)絡(luò)權(quán)重,目的是最小化網(wǎng)絡(luò)的輸出誤差。 二、深度學(xué)習(xí)
    的頭像 發(fā)表于 02-12 15:15 ?717次閱讀

    什么是機(jī)器學(xué)習(xí)通過(guò)機(jī)器學(xué)習(xí)方法能解決哪些問(wèn)題?

    來(lái)源:Master編程樹(shù)“機(jī)器學(xué)習(xí)”最初的研究動(dòng)機(jī)是讓計(jì)算機(jī)系統(tǒng)具有人的學(xué)習(xí)能力以便實(shí)現(xiàn)人工智能。因?yàn)闆](méi)有學(xué)習(xí)能力的系統(tǒng)很難被認(rèn)為是具有智能的。目前被廣泛采用的機(jī)器學(xué)習(xí)的定義是“利用經(jīng)
    的頭像 發(fā)表于 11-16 01:07 ?850次閱讀
    什么是機(jī)器<b class='flag-5'>學(xué)習(xí)</b>?<b class='flag-5'>通過(guò)</b>機(jī)器<b class='flag-5'>學(xué)習(xí)</b>方法能解決哪些問(wèn)題?

    tlv320aic3104通過(guò)調(diào)整增益來(lái)控制聲音大小,調(diào)整一下就出現(xiàn)一聲“嘣“,如何解決?

    我們使用3104通過(guò)調(diào)整增益來(lái)控制聲音大小。調(diào)整一下就出現(xiàn)一聲“嘣“。請(qǐng)問(wèn)這個(gè)該如何解決? 調(diào)整的寄存器如下: void VOLUME_TLV320(uint8_t volume
    發(fā)表于 10-30 06:06

    什么是交叉調(diào)整率?怎么改善?

    生活中多路輸出電源應(yīng)用廣泛,但是多路輸出電源的交叉調(diào)整率是個(gè)頭疼的問(wèn)題。今天,我們就來(lái)討論一下交叉調(diào)整率的改善之道!
    的頭像 發(fā)表于 10-24 11:15 ?1919次閱讀
    什么是交叉<b class='flag-5'>調(diào)整</b>率?怎么改善?

    如何調(diào)整TAS5729的BQ參數(shù)?

    各位工程師,我們公司采用TAS5729功放來(lái)驅(qū)動(dòng)我們產(chǎn)品的喇叭,由于音腔的設(shè)計(jì)以及喇叭本身的頻率響應(yīng)問(wèn)題,喇叭在3K~5K范圍內(nèi)失真比較大,我們準(zhǔn)備通過(guò)調(diào)整TAS5729的Biquad來(lái)調(diào)整EQ
    發(fā)表于 10-15 08:30

    直流電機(jī)通過(guò)調(diào)整什么改變轉(zhuǎn)速

    直流電機(jī)是一種常見(jiàn)的電機(jī)類(lèi)型,廣泛應(yīng)用于各種工業(yè)和民用領(lǐng)域。直流電機(jī)的轉(zhuǎn)速可以通過(guò)多種方式進(jìn)行調(diào)整,以滿(mǎn)足不同的應(yīng)用需求。 直流電機(jī)的工作原理 直流電機(jī)主要由定子、轉(zhuǎn)子、換向器和電刷等部分組成。其
    的頭像 發(fā)表于 08-23 15:44 ?1206次閱讀

    Linux操作系統(tǒng)運(yùn)行參數(shù)自動(dòng)調(diào)整技術(shù)

    Linux操作系統(tǒng)運(yùn)行參數(shù)的自動(dòng)調(diào)整是一個(gè)復(fù)雜而關(guān)鍵的技術(shù),它可以顯著提高系統(tǒng)性能、穩(wěn)定性和資源利用率。通過(guò)使用自適應(yīng)算法特別是內(nèi)核態(tài)的機(jī)器學(xué)習(xí)框架、性能監(jiān)控工具和配置管理工具,能夠在動(dòng)態(tài)變化的工作
    的頭像 發(fā)表于 08-22 09:53 ?703次閱讀
    Linux操作系統(tǒng)運(yùn)行參數(shù)自動(dòng)<b class='flag-5'>調(diào)整</b>技術(shù)

    示波器萬(wàn)用表功能調(diào)整方法

    需求。 一、示波器的功能調(diào)整方法 波形顯示調(diào)整 示波器的主要功能是顯示電信號(hào)的波形,因此波形顯示的清晰度和準(zhǔn)確性至關(guān)重要。以下是一些常用的波形顯示調(diào)整方法: 1.1 波形亮度調(diào)整 波形
    的頭像 發(fā)表于 08-09 15:02 ?1830次閱讀

    動(dòng)態(tài)調(diào)整電源芯片輸出電壓

    這個(gè)是前陣子紅外觸摸框上的部分電路圖, 主要功能是通過(guò)調(diào)整LDO輸出電壓間接控制發(fā)射燈的輸出功率。
    的頭像 發(fā)表于 07-17 11:44 ?1529次閱讀
    動(dòng)態(tài)<b class='flag-5'>調(diào)整</b>電源芯片輸出電壓

    BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)機(jī)制

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network),即反向傳播神經(jīng)網(wǎng)絡(luò),是一種基于梯度下降算法的多層前饋神經(jīng)網(wǎng)絡(luò),其學(xué)習(xí)機(jī)制的核心在于通過(guò)反向傳播算法
    的頭像 發(fā)表于 07-10 15:49 ?1084次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過(guò)程詳解

    深度學(xué)習(xí)模型訓(xùn)練是一個(gè)復(fù)雜且關(guān)鍵的過(guò)程,它涉及大量的數(shù)據(jù)、計(jì)算資源和精心設(shè)計(jì)的算法。訓(xùn)練一個(gè)深度學(xué)習(xí)模型,本質(zhì)上是通過(guò)優(yōu)化算法調(diào)整模型參數(shù),使模型能夠更好地?cái)M合數(shù)據(jù),提高預(yù)測(cè)或分類(lèi)的準(zhǔn)
    的頭像 發(fā)表于 07-01 16:13 ?2431次閱讀