女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

通過對比學(xué)習(xí)的角度來解決細(xì)粒度分類的特征質(zhì)量問題

海闊天空的專欄 ? 來源:墨奇科技 ? 作者:墨奇科技 ? 2022-05-13 16:54 ? 次閱讀

一、本文貢獻(xiàn)

1.網(wǎng)絡(luò)通過提取顯著性區(qū)域并融合這些區(qū)域特征,以同時學(xué)習(xí)局部和全局的特征2.通過混雜來自負(fù)例的注意力特征來增強(qiáng)網(wǎng)絡(luò)對于每個注意力區(qū)域的學(xué)習(xí)3.網(wǎng)絡(luò)得到了 SOTA 的結(jié)果

二、動機(jī)

細(xì)粒度分類任務(wù)與常規(guī)的分類問題不同,它希望分類器能夠看到不同類別之間的細(xì)微差異。當(dāng)前流行的細(xì)粒度方法通常從兩個方面設(shè)計以洞察到更加細(xì)微的特征:“更有區(qū)分度的表征學(xué)習(xí)”與“定位特征顯著的部分”。然而,學(xué)習(xí)更有區(qū)分度的圖像表征本身就是有挑戰(zhàn)的,同時僅僅通過沒有監(jiān)督的分類信息也很難保證學(xué)習(xí)有顯著區(qū)別的部分的準(zhǔn)確位置。

與現(xiàn)有方法不同,在本文中,作者主張從對比學(xué)習(xí)的角度解決上述的困境,并提出一種新穎的注意力對比學(xué)習(xí)網(wǎng)絡(luò)(ACLN)。該網(wǎng)絡(luò)旨在吸引來自同一類別的正對的表示,并排斥來自不同類別的負(fù)對的表示。為了實現(xiàn)這個目標(biāo),提出了一個配備兩個對比損失的對比學(xué)習(xí)模塊。具體來說,注意力生成器生成的關(guān)注區(qū)域分別與原始CNN特征作為正對,而不同圖像相應(yīng)的不同注意力區(qū)域成負(fù)對。此外,最終的分類結(jié)果是通過一個協(xié)同學(xué)習(xí)模塊同時利用原始特征和注意力圖獲得的。該方法在四個基準(zhǔn)數(shù)據(jù)集上進(jìn)行了綜合實驗,我們的 ACLN 在這些數(shù)據(jù)集上優(yōu)于所有現(xiàn)有的 SOTA 方法。作者已經(jīng)將代碼開源: https://github.com/mpskex/AttentiveContrastiveLearningNetwork

三、方法

該方法主要分為了三個部分:

1.注意力生成器:用于生成需要關(guān)注的區(qū)域2.對比學(xué)習(xí)模塊:用于區(qū)分學(xué)習(xí)不同類別不同區(qū)域的特征3.注意力特征記憶:用于為對比學(xué)習(xí)進(jìn)行采樣

該方法的總體框架可以參考下圖:

poYBAGJ-GrOAa9GlAAGPOdA1NXE178.png

1.注意力生成器

poYBAGJ-GsOAXDpdAAFZRu-IUDs388.pngpYYBAGJ-GvOAL6k_AABqF1aTQAw184.png

其中 ? 代表元素之間相乘,? 代表矩陣乘法。α 和 β 可學(xué)習(xí)參數(shù),用于平衡 兩種交互的比例。同時,為了讓注意力之間能夠相互分開,作者設(shè)計了簡單的對比損失函數(shù)來約束不同通道之間注意力生成的區(qū)別。

poYBAGJ-Gx-AABS5AABBcUmT470049.png

2.對比學(xué)習(xí)模塊

pYYBAGJ-G0uAc0rkAAFJVHuwgeI392.png

作者為了達(dá)成更高的準(zhǔn)確率,設(shè)計了注意力對比學(xué)習(xí)模塊以強(qiáng)化分類器對于局部特征的敏感性。作者把融合特征當(dāng)作正例的同時,將一些受到干擾的融合特征作為難負(fù)例。更確切地說,作者把在原有特征中雜糅一些顯著的且屬于其他類別的特征當(dāng)作負(fù)例,認(rèn)為這些特征受到了來自其他類別樣本特征的干擾。舉例來講,例如一張圖片 i 應(yīng)該被分類為 A,這個分類結(jié)果是由 n 個關(guān)注區(qū)域共同判定得出的。如果從另一張屬于 B 類的圖像 j 中摘取一個關(guān)注區(qū)域的特征融合到 i 圖像的 (n-1) 個關(guān)注區(qū)域的特征中,那么網(wǎng)絡(luò)不應(yīng)該把這個收到干擾的融合特征判別為類別 A。這樣做有兩個好處:

1.對于用來作為干擾的特征來說,這些特征需要包含足夠顯著且飽含信息的特征來干擾分類器判定為 A 的分類。

2.對于分類器而言,分類器需要更靈敏地識別這樣的離群點。這實際上也鼓勵了分類器在訓(xùn)練中讓這些來自不同類別的關(guān)注區(qū)域特征分布在類別上更加松散。

poYBAGJ-G2yANdAVAAIgdE-uMbw481.png

在學(xué)習(xí)的過程中,作者設(shè)計了一個簡單的二分類判別器來區(qū)分融合特征中是否包含離群特征。首先,方法會將來自不同關(guān)注區(qū)域的特征拆散。之后,這些拆散的關(guān)注區(qū)域特征會根據(jù)類別信息隨機(jī)融合到異類中。最終這些特征會被送入判別器輸出最終的分類分?jǐn)?shù)。判別器的目標(biāo)是區(qū)分含有干擾和不含干擾的特征,從而使得學(xué)習(xí)到的特征在每個部分都能包含具有明顯語義的特征。

為了增加負(fù)樣本的多樣性,作者還設(shè)計了一個類似 Memory Bank 的機(jī)制來積累來自不同類別的特征。這些特征可以幫助網(wǎng)絡(luò)尋找更多更隨機(jī)的融合方式,使得難樣本構(gòu)建的邊界更加光滑。

poYBAGJ-G4aAVO2xAAEt2EFjN0M701.png

如上圖所示,通過如此設(shè)計的對比學(xué)習(xí)機(jī)制,就能夠?qū)ふ乙粋€在特征空間更加緊致的分布。因為在實際數(shù)據(jù)集當(dāng)中,數(shù)據(jù)在空間的分布可能都比較離散。如果在這樣的訓(xùn)練數(shù)據(jù)中訓(xùn)練,可能會遺漏很多本應(yīng)該關(guān)注的信息,從而導(dǎo)致網(wǎng)絡(luò)不能獲得足夠的泛化性能。其現(xiàn)象就是網(wǎng)絡(luò)明明在訓(xùn)練集中效果非常好,但是卻總是不能在測試集合上獲得更好的性能。

同時,在類別之間構(gòu)建負(fù)樣本能夠鼓勵特征分布在類別上能夠更加顯著。舉例來說,在左圖中如果同時拉開實線箭頭的距離,會比以同等速率來開虛線箭頭獲得的類別間距離更大。這樣我們也就通過構(gòu)建難樣本獲得了更大的類別間距離,使不同類別的特征更好被區(qū)分。

作者在使用對比學(xué)習(xí)機(jī)制之后,構(gòu)建了很多特征層面的難樣本。這些難樣本能夠讓分類器更加魯棒,一定程度上改善了模型的泛化性。

Result

模型在 Flowers-102 / CUB-200-2011 / Oxford Pets 數(shù)據(jù)集上都獲得了更好的成績。作者分別使用 ResNet-101 和 DenseNet 161 在公開測試集上評價,均高于當(dāng)前的 SOTA 方法。

poYBAGJ-G6SALJ1TAAKyOyKxg1Q513.png

同時作者還設(shè)計了消融實驗,在使用注意力生成器、對比學(xué)習(xí)以及本文提出的關(guān)注區(qū)域特征融合方法的不同條件下,評價了網(wǎng)絡(luò)的性能。

poYBAGJ-G7yAJllnAADUHzJ7l6Y845.png

來源:墨奇科技

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 對比
    +關(guān)注

    關(guān)注

    0

    文章

    4

    瀏覽量

    7999
  • 細(xì)粒度
    +關(guān)注

    關(guān)注

    0

    文章

    4

    瀏覽量

    6635
  • 墨奇科技
    +關(guān)注

    關(guān)注

    0

    文章

    16

    瀏覽量

    4572
收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    通過排查電能質(zhì)量問題縮短停產(chǎn)時間

    通過排查電能質(zhì)量問題縮短停產(chǎn)時間:不良電能質(zhì)量是電機(jī),照明裝置以及IT網(wǎng)絡(luò)等系統(tǒng)中所發(fā)生問題的潛在來源。采取主動措施以排查并解決不良電能質(zhì)量問題
    發(fā)表于 11-26 17:44 ?24次下載

    細(xì)粒度圖像分析技術(shù)詳解

    下對物體進(jìn)行識別,就連相似度極高的同一物種也能區(qū)別開來。本文將分別圍繞細(xì)粒度圖像分類細(xì)粒度圖像檢索兩大經(jīng)典圖像問題展開,從而使讀者對細(xì)粒度
    發(fā)表于 09-30 11:27 ?0次下載
    <b class='flag-5'>細(xì)粒度</b>圖像分析技術(shù)詳解

    一種細(xì)粒度的面向產(chǎn)品屬性的用戶情感模型

    傳統(tǒng)情感模型在分析商品評論中的用戶情感時面臨兩個主要問題:1)缺乏針對產(chǎn)品屬性的細(xì)粒度情感分析;2)自動提取的產(chǎn)品屬性其數(shù)量須提前確定。針對上述問題,提出了一種細(xì)粒度的面向產(chǎn)品屬性的用戶情感模型
    發(fā)表于 12-26 10:29 ?0次下載

    基于Modbus功能碼細(xì)粒度過濾算法的研究

    細(xì)粒度過濾算法。然而大量匹配規(guī)則的存儲管理對數(shù)據(jù)過濾過程的查詢效率有著決定性的影響,結(jié)合對規(guī)則集進(jìn)行分類管理以提高匹配效率。通過構(gòu)建有效的數(shù)據(jù)存儲結(jié)構(gòu)及對白名單規(guī)則的組織與配置,實現(xiàn)了Modbus TCP協(xié)議的
    發(fā)表于 01-16 15:32 ?0次下載
    基于Modbus功能碼<b class='flag-5'>細(xì)粒度</b>過濾算法的研究

    基于ABS細(xì)粒度隱私隔絕的身份追溯研究

    的局限,將數(shù)據(jù)解密門限與認(rèn)證門限分離,增加認(rèn)證量程音棒性,實現(xiàn)細(xì)粒度的訪問控制。通過實踐驗證,本模型具有高效遴選標(biāo)記屬性的效能,能為網(wǎng)絡(luò)壢境下的身份認(rèn)證工作,提供可靠性適用方案。
    發(fā)表于 02-24 15:50 ?0次下載
    基于ABS<b class='flag-5'>細(xì)粒度</b>隱私隔絕的身份追溯研究

    使用深度模型遷移進(jìn)行細(xì)粒度圖像分類的方法說明

    logits層進(jìn)行不確切監(jiān)督學(xué)習(xí),使其特征分布向新數(shù)據(jù)集特征分布方向遷移;最后,將遷移模型導(dǎo)出,在對應(yīng)的測試集上進(jìn)行測試。實驗結(jié)果表明,在STANFORD DOGS、CUB -200 -2011、OXFORD FLOWER-10
    發(fā)表于 01-18 17:01 ?5次下載
    使用深度模型遷移進(jìn)行<b class='flag-5'>細(xì)粒度</b>圖像<b class='flag-5'>分類</b>的方法說明

    FGIA 中的主要問題和挑戰(zhàn)

    本文對基于深度學(xué)習(xí)細(xì)粒度圖像分析進(jìn)行了綜述,從細(xì)粒度圖像識別、檢索和生成三個方向展開論述。
    的頭像 發(fā)表于 07-23 16:04 ?3473次閱讀

    細(xì)粒度圖像分析任務(wù)在發(fā)展過程中面臨著獨(dú)特的挑戰(zhàn)

    細(xì)粒度圖像分析所面臨的任務(wù)是分析和處理某個類別目標(biāo)下的一系列子類別的問題,例如狗的類別下包含了各種不同外形、顏色、身材的狗。這一任務(wù)最大的挑戰(zhàn)在于子類間的差異很小,而在同一類別中的對象卻因為姿態(tài)、大小或者位置呈現(xiàn)出較大的差別。
    的頭像 發(fā)表于 08-02 14:29 ?5190次閱讀

    電能質(zhì)量問題分類_電能質(zhì)量的檢測方法

    電能質(zhì)量問題分類 電能質(zhì)量問題主要表現(xiàn)為電壓質(zhì)量問題及電流波形問題,電能質(zhì)量問題按電網(wǎng)所處的運(yùn)行方式可分為穩(wěn)態(tài)電能
    的頭像 發(fā)表于 02-04 14:45 ?6068次閱讀

    結(jié)合非局部和多區(qū)域注意力機(jī)制的細(xì)粒度識別方法

    如何更好地提取細(xì)粒度級別的細(xì)微特征。為此,提出了一種結(jié)合非局部和多區(qū)域注意力機(jī)制的細(xì)粒度識別方法。 Navigator只利用圖像標(biāo)簽便可以較妤地定位到一些鑒別性區(qū)域,通過融合全局
    發(fā)表于 04-20 11:25 ?3次下載
    結(jié)合非局部和多區(qū)域注意力機(jī)制的<b class='flag-5'>細(xì)粒度</b>識別方法

    基于文本的細(xì)粒度美妝圖譜視覺推理問題

    文中研究了化妝領(lǐng)域中基于文本的細(xì)粒度視覺推理問題,具體探究了一個新穎的多模態(tài)任務(wù),即根據(jù)有序的化妝步驟描述,對化妝過程中打亂順序的人臉圖片進(jìn)行排序。針對這個新穎的任務(wù),通過數(shù)據(jù)的處理和分析,提岀了
    發(fā)表于 04-23 14:15 ?1次下載
    基于文本的<b class='flag-5'>細(xì)粒度</b>美妝圖譜視覺推理問題

    基于BiLSTM-CRF的細(xì)粒度知識圖譜問答模型

    基于知識圖譜的問答中問句侯選主實體篩選步驟繁瑣,且現(xiàn)有多數(shù)模型忽略了問句與關(guān)系的細(xì)粒度相關(guān)性。針對該問題,構(gòu)建基于 BILSTM-CRF的細(xì)粒度知識圖譜問答模型,其中包括實體識別和關(guān)系預(yù)測2個部分
    發(fā)表于 06-03 11:25 ?4次下載

    機(jī)器翻譯中細(xì)粒度領(lǐng)域自適應(yīng)的數(shù)據(jù)集和基準(zhǔn)實驗

    細(xì)粒度領(lǐng)域自適應(yīng)問題是一個重要的實際應(yīng)用問題。當(dāng)研發(fā)人員需要為某個特定主題提供翻譯服務(wù)(比如為某個主題的會議提供翻譯)時,往往需要在特定的細(xì)粒度領(lǐng)域上取得更好的翻譯性能。
    的頭像 發(fā)表于 04-26 10:08 ?1526次閱讀

    Leptos利用細(xì)粒度的響應(yīng)式構(gòu)建聲明性用戶界面

    Leptos 是一個全棧、同構(gòu)的 Rust Web 框架,利用細(xì)粒度的響應(yīng)式構(gòu)建聲明性用戶界面。
    的頭像 發(fā)表于 10-17 09:58 ?1291次閱讀

    細(xì)粒度圖像識別深度學(xué)習(xí)開源工具庫Hawkeye解析

      Hawkeye 是一個基于 PyTorch 的細(xì)粒度圖像識別深度學(xué)習(xí)工具庫,專為相關(guān)領(lǐng)域研究人員和工程師設(shè)計。目前,Hawkeye 包含多種代表性范式的細(xì)粒度識別方法,包括 “基于深度濾波器”、“基于注意力機(jī)制”、“基于高階
    的頭像 發(fā)表于 11-06 20:26 ?1373次閱讀