女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一個具有泛化性的小樣本語義分割(GFS-Seg)

工程師鄧生 ? 來源:GiantPandaCV ? 作者:李響 ? 2022-09-13 08:56 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1 前言

之前已經(jīng)有過關(guān)于小樣本語義分割的論文解讀,關(guān)于如何用 Transformer 思想的分類器進行小樣本分割。本篇是發(fā)表在 CVPR 2022 上的 Generalized Few-shot Semantic Segmentation(后文簡稱 GFS-Seg),既一種泛化的小樣本語義分割模型。在看論文的具體內(nèi)容之前,我們先了解一些前置知識。

深度學(xué)習(xí)是 Data hunger 的方法, 需要大量的數(shù)據(jù),標(biāo)注或者未標(biāo)注。少樣本學(xué)習(xí)研究就是如何從少量樣本中去學(xué)習(xí)。拿分類問題來說,每個類只有一張或者幾張樣本。少樣本學(xué)習(xí)可以分為 Zero-shot Learning(即要識別訓(xùn)練集中沒有出現(xiàn)過的類別樣本)和 One-Shot Learning/Few shot Learning(即在訓(xùn)練集中,每一類都有一張或者幾張樣本)。以 Zero-shot Learning 來說,比如有一個中文 “放棄”,要你從 I, your、 she、them 和 abnegation 五個單詞中選擇出來對應(yīng)的英文單詞,盡管你不知道“放棄”的英文是什么,但是你會將“放棄”跟每個單詞對比,而且在你之前的學(xué)習(xí)中,你已經(jīng)知道了 I、 your、she 和 them 的中文意思,都不是“放棄”,所以你會選擇 abnegation。還需要明確幾個概念:

Support set:支撐集,每次訓(xùn)練的樣本集合。

Query set:查詢集,用于與訓(xùn)練樣本比對的樣本,一般來說 Query set 就是一個樣本。

在 Support set 中,如果有 n 個種類,每個種類有 k 個樣本,那么這個訓(xùn)練過程叫 n-way k-shot。如每個類別是有 5 個 examples 可供訓(xùn)練,因為訓(xùn)練中還要分 Support set 和 Query set,5-shots 場景至少需要 5+1 個樣例,至少一個 Query example 去和 Support set 的樣例做距離(分類)判斷。

2 概述

訓(xùn)練語義分割模型需要大量精細(xì)注釋的數(shù)據(jù),這使得它很難快速適應(yīng)不滿足這一條件的新類,F(xiàn)S-Seg 在處理這個問題時有很多限制條件。在這篇文章中引入了一個新的方法,稱為 GFS-Seg,能同時分割具有極少樣本的新類別和具有足夠樣本的基礎(chǔ)類別的能力。建立了一個 GFS-Seg baseline,在不對原模型進行結(jié)構(gòu)性改變的情況下能取得不錯的性能。此外,由于上下文信息對語義分割至關(guān)重要,文中提出了上下文感知原型學(xué)習(xí)架構(gòu)(CAPL),利用 Support Set 樣本共同的先驗知識,根據(jù)每個 Query Set 圖像的內(nèi)容動態(tài)地豐富分類器的上下文信息,顯著提高性能。

3 GFS-Seg 和 FS-Seg 的 Pipeline 區(qū)別

如下圖所示,GFS-Seg 有三個階段。分別是:基類的學(xué)習(xí)階段;新類的注冊階段,其中包含新類的少數(shù) Support set 樣本;對基類和新類的評估階段。也就是說,GFS-Seg 與 FS-Seg 的區(qū)別在于,在評估階段,GFS-Seg 不需要轉(zhuǎn)發(fā)測試(Query set)樣本中包含相同目標(biāo)類的 Support set 樣本來進行預(yù)測,因為 GFS-Seg 在基類學(xué)習(xí)階段和新類注冊階段應(yīng)該已經(jīng)分別獲得了基類和新類的信息。GFS-Seg 在事先不知道查詢圖像中包含哪些類別的情況下,同時對新類進行預(yù)測時,可以在不犧牲基類準(zhǔn)確性的情況下仍表現(xiàn)良好。

9e79c994-32fe-11ed-ba43-dac502259ad0.png

4 Towards GFS-Seg

在經(jīng)典的 Few-Shot Segmentation 任務(wù)中,有兩個關(guān)鍵標(biāo)準(zhǔn):(1) 模型在訓(xùn)練期間沒有看到測試類的樣本。(2) 模型要求其 Support set 樣本包含 Query set 中存在的目標(biāo)類,以做出相應(yīng)的預(yù)測。

通過下圖,我們來看下 GFS-Seg 與經(jīng)典人物有哪些不同。下圖中用相同的 Query 圖像說明了 FS-Seg 和 GFS-Seg 的一個 2-way K-shot 任務(wù),其中牛和摩托車是新的類,人和車是基類。先來看下 (a),Prototype Network 通過 Embedding Generation 函數(shù),將牛和摩托車的少量訓(xùn)練樣本映射為 2 個向量,在檢測分類時候,將待分割圖像的特征也通過 Embedding Generation 映射為向量,最后計算待檢測向量與 2 個向量的特征差異(假設(shè)是距離),認(rèn)定距離最小的為預(yù)測類別。(a) 只限于預(yù)測 Support set 中包含的類的二進制分割掩碼。右邊的人和上面的車在預(yù)測中缺失,因為支持集沒有提供這些類的信息,即使模型已經(jīng)在這些基類上訓(xùn)練了足夠的 epoch。此外,如果 (a) 的支持集提供了查詢圖像中沒有的多余的新類(如飛機),這些類別可能會影響模型性能,因為 FS-Seg 有一個前提條件,即 Query 圖像必須是 Support set 樣本提供的類。

FS-Seg 模型只學(xué)習(xí)并預(yù)測給定的新類的前景掩碼,所以在我們提出的 GFS-Seg 的通用化設(shè)置中,性能會大大降低,因為所有可能的基類和新類都需要預(yù)測。不同的是,(b) 也就是 GFS-Seg,在沒有 Query 圖像中包含的類的先驗知識的情況下,同時識別基類和新類,額外的 Support set(如 (b) 左上角的飛機)應(yīng)該不會對模型產(chǎn)生很大影響。在評估過程中,GFS-Seg 不需要事先了解 Query 圖像中存在哪些目標(biāo)類別,而是通過注冊新的類別,對所有測試圖像一次性形成一個新的分類器((b) 中的藍(lán)色區(qū)域代表新的類別注冊階段)。

9f47b8e0-32fe-11ed-ba43-dac502259ad0.png


此外,還有更多關(guān)于 GFS-Seg 的 baseline 細(xì)節(jié),這里就不詳細(xì)展開了,讀者們可以一遍看代碼一邊看論文中的解釋,不難理解。

5 上下文感知原型學(xué)習(xí)(CAPL)

原型學(xué)習(xí)(PL)適用于小樣本分類和 FS-Seg,但它對 GFS-Seg 的效果較差。在 FS-Seg 的設(shè)置中,查詢樣本的標(biāo)簽只來自于新的類別。因此,新類和基類之間沒有必要的聯(lián)系,可以利用它來進一步改進。然而,在 GFS-Seg 中,對每個測試圖像中包含的類別沒有這樣的限制,需要對所有可能的基類和新穎類進行預(yù)測。

9fa216a0-32fe-11ed-ba43-dac502259ad0.png

如上圖所示,我們不關(guān)注 SCE 和 DQCE 的計算過程。SCE 只發(fā)生在新的類注冊階段,它利用支持 Support set 樣本來提供先驗知識。然而,在評估階段,新分類器由所有 Query 圖像共享,因此引入的先驗可能會偏向于有限的 Support set 樣本的內(nèi)容,導(dǎo)致對不同 Query 圖像的泛化能力較差。為了緩解這個問題,進一步提出了動態(tài)查詢上下文豐富計算(DQCE),它通過動態(tài)合并從單個查詢樣本中挖掘的基本語義信息,使新分類器適應(yīng)不同的上下文。繼續(xù)看上圖,N‘n 個新類別(例如摩托車和奶牛)的權(quán)重直接由特征平均得出。此外,Support set 中出現(xiàn)的 N’b 個基類(例如人、汽車、羊和公共汽車)的權(quán)重由 SCE 用原始權(quán)重計算得出。此外,DQCE 通過從 Query set 樣本中提取的臨時上下文特征,動態(tài)豐富了分類器中 N'b 個基類的權(quán)重。綜上,新的分類器結(jié)合了 SCE 和 DQCE 的優(yōu)點。

GFS-Seg 使用 CAPL 的方式完成訓(xùn)練,具體性能表現(xiàn)在下面的實驗部分列出。

6 實驗

如下表所示,CANet、SCL、PFENet 和 PANet 與用 CAPL 實現(xiàn)的模型相比表現(xiàn)不佳。值得注意的是,下表中的 mIoU 的結(jié)果是在 GFS-Seg 配置下的,因此它們低于這些 FS-Seg 模型的論文中給出的結(jié)果,這種差異是由不同的全局設(shè)置造成的。在 GFS-Seg 中,模型需要在給定的測試圖像中識別所有的類,包括基類和新類,而在 FS-Seg 中,模型只需要找到屬于一個特殊的新類的像素,不會去分割基類,Support set 的樣本提供了目標(biāo)類是什么的先驗知識。因此,在 GFS-Seg 中,存在基類干擾的情況下,識別新類要難得多,所以數(shù)值很低。

a093006a-32fe-11ed-ba43-dac502259ad0.png

FS-Seg 是 GFS-Seg 的一個極端情況。所以為了在 FS-Seg 的中驗證提出的 CAPL,在下表中,我們將 CAPL 合并到 PANet 和 PFENet??梢钥闯?, CAPL 對 baseline 實現(xiàn)了顯著的改進。數(shù)據(jù)集是 Pascal-5i 和 COCO-20i ,只需要識別新類。

a0c715b2-32fe-11ed-ba43-dac502259ad0.png

下圖對分割結(jié)果進行了可視化,其中 SCE 和 DQCE 的組合進一步完善了 baseline 的預(yù)測,還有一些消融實驗的效果這里不一一列出了。

a15ad16c-32fe-11ed-ba43-dac502259ad0.png

7 結(jié)論

這篇閱讀筆記僅為個人理解,文章提出了一個具有泛化性的小樣本語義分割(GFS-Seg),并提出了一個新的解決方案:上下文感知原型學(xué)習(xí)(CAPL)。與經(jīng)典的 FS-Seg 不同,GFS-Seg 旨在識別 FS-Seg 模型所不能識別的基礎(chǔ)類和新類。提出的 CAPL 通過動態(tài)地豐富上下文信息的適應(yīng)性特征,實現(xiàn)了性能的顯著提高。CAPL 對基礎(chǔ)模型沒有結(jié)構(gòu)上的限制,因此它可以很容易地應(yīng)用于普通的語義分離框架,并且它可以很好地推廣到 FS-Seg。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:CVPR 2022:Generalized Few-shot Semantic Segmentation 解讀

文章出處:【微信號:GiantPandaCV,微信公眾號:GiantPandaCV】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    EL非監(jiān)督分割白皮書丨5張OK圖、1分鐘建模、半小時落地的異常檢測工具!

    在工業(yè)4.0浪潮下,制造業(yè)對產(chǎn)品質(zhì)量的要求愈發(fā)嚴(yán)苛。傳統(tǒng)人工質(zhì)檢效率低、成本高,基于規(guī)則算法的視覺檢測系統(tǒng)難以應(yīng)對復(fù)雜場景,而依賴缺陷樣本的有監(jiān)督AI檢測又面臨樣本不足、化能力弱的難題。在此背景下
    的頭像 發(fā)表于 07-11 15:21 ?75次閱讀
    EL非監(jiān)督<b class='flag-5'>分割</b>白皮書丨5張OK圖、1分鐘建模、半小時落地的異常檢測工具!

    【正點原子STM32MP257開發(fā)板試用】基于 DeepLab 模型的圖像分割

    是谷歌團隊提出的種用于語義分割的深度學(xué)習(xí)模型,屬于 DeepLab 系列模型的第三代版本。它在圖像語義分割任務(wù)中表現(xiàn)優(yōu)異,能夠高效地捕獲
    發(fā)表于 06-21 21:11

    如何修改yolov8分割程序中的kmodel?

    YOLOV8分割示例 seg=SegmentationApp(kmodel_path,labels=labels,model_input_size=model_input_size
    發(fā)表于 04-25 08:22

    RK3576 yolov11-seg訓(xùn)練部署教程

    yolov11-seg 是YOLO(You Only Look Once)系列的最新成員,專為實時實例分割任務(wù)設(shè)計。它在保持YOLO家族高效推理速度的同時,通過創(chuàng)新的網(wǎng)絡(luò)結(jié)構(gòu)和分割頭設(shè)計,實現(xiàn)了像素
    的頭像 發(fā)表于 04-16 09:43 ?777次閱讀
    RK3576 yolov11-<b class='flag-5'>seg</b>訓(xùn)練部署教程

    SparseViT:以非語義為中心、參數(shù)高效的稀疏化視覺Transformer

    (IML)都遵循“語義分割主干網(wǎng)絡(luò)”與“精心制作的手工制作非語義特征提取”相結(jié)合的設(shè)計,這種方法嚴(yán)重限制了模型在未知場景的偽影提取能力。 論文標(biāo)題: Can We Get Rid
    的頭像 發(fā)表于 01-15 09:30 ?466次閱讀
    SparseViT:以非<b class='flag-5'>語義</b>為中心、參數(shù)高效的稀疏化視覺Transformer

    ADS8556和ADS8568采集一個樣本點最快支持多少nS?

    求教下,有應(yīng)用經(jīng)驗的給指導(dǎo)下,ADS8556 和ADS8568 采集一個樣本點最快支持多少nS,且兩相鄰樣本點的數(shù)據(jù)不能相互串?dāng)_。
    發(fā)表于 12-09 07:16

    利用VLM和MLLMs實現(xiàn)SLAM語義增強

    語義同步定位與建圖(SLAM)系統(tǒng)在對鄰近的語義相似物體進行建圖時面臨困境,特別是在復(fù)雜的室內(nèi)環(huán)境中。本文提出了種面向?qū)ο骃LAM的語義增強(SEO-SLAM)的新型SLAM系統(tǒng),借
    的頭像 發(fā)表于 12-05 10:00 ?1401次閱讀
    利用VLM和MLLMs實現(xiàn)SLAM<b class='flag-5'>語義</b>增強

    常見人體姿態(tài)評估顯示方式的兩種方式

    ,基于Deeplabv3+ 與ResNet34構(gòu)建的一個人體語義分割模型。 火柴人 主要是基于關(guān)鍵點的人體姿態(tài)評估顯示方式,基于YOLOv8等人體姿態(tài)評估的關(guān)鍵點模型均可以實現(xiàn),演示代碼運行效果如下: BodyPix 主要是基于
    的頭像 發(fā)表于 11-11 11:21 ?668次閱讀
    常見人體姿態(tài)評估顯示方式的兩種方式

    手冊上新 |迅為RK3568開發(fā)板NPU例程測試

    yolov5目標(biāo)檢測 6.13 yolov5-seg語義分割 6.14 yolov6目標(biāo)檢測 6.15 yolov7目標(biāo)檢測 6.16 yolov8目標(biāo)檢測 6.17 yolov8_seg
    發(fā)表于 10-23 14:06

    語義分割25種損失函數(shù)綜述和展望

    本綜述提供了對25種用于圖像分割的損失函數(shù)的全面且統(tǒng)的回顧。我們提供了種新穎的分類法,并詳細(xì)審查了這些損失函數(shù)如何在圖像分割中被定制和利用,強調(diào)了它們的重要特征和應(yīng)用,并進行了系統(tǒng)
    的頭像 發(fā)表于 10-22 08:04 ?1623次閱讀
    <b class='flag-5'>語義</b><b class='flag-5'>分割</b>25種損失函數(shù)綜述和展望

    畫面分割器怎么調(diào)試

    畫面分割器,通常指的是視頻畫面分割器,它是種可以將視頻信號分割成多個小畫面的設(shè)備。這種設(shè)備
    的頭像 發(fā)表于 10-17 09:32 ?1084次閱讀

    畫面分割器怎么連接

    器的基本原理 畫面分割器的工作原理是通過數(shù)字信號處理技術(shù),將多個視頻信號源(如攝像頭、DVR等)的圖像數(shù)據(jù)進行處理,然后在監(jiān)視器上以分割的形式顯示出來。這些
    的頭像 發(fā)表于 10-17 09:29 ?998次閱讀

    畫面分割器有幾路主輸出

    畫面分割器,也稱為視頻分割器或多畫面處理器,是種可以將視頻信號分割成多個獨立視頻畫面的設(shè)備
    的頭像 發(fā)表于 10-17 09:24 ?864次閱讀

    手冊上新 |迅為RK3568開發(fā)板NPU例程測試

    yolov5目標(biāo)檢測 6.13 yolov5-seg語義分割 6.14 yolov6目標(biāo)檢測 6.15 yolov7目標(biāo)檢測 6.16 yolov8目標(biāo)檢測 6.17 yolov8_seg
    發(fā)表于 08-12 11:03

    怎樣增加iram1_0_seg的大?。?/a>

    irom0_0_seg : org = 0x40240000, len = 0x38000 } 但是程序運行直是打印亂碼,修改成48KB大小也樣,請問應(yīng)該怎樣增加iram1_0_seg
    發(fā)表于 07-22 06:17