女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

SegRefiner:通過(guò)擴(kuò)散模型實(shí)現(xiàn)高精度圖像分割

CVer ? 來(lái)源:CVer ? 2023-12-28 11:24 ? 次閱讀

背景介紹

盡管圖像分割在過(guò)去得到了廣泛研究和快速發(fā)展,但獲得細(xì)節(jié)上非常準(zhǔn)確的分割 mask 始終十分具有挑戰(zhàn)性。因?yàn)檫_(dá)成高精度的分割既需要高級(jí)語(yǔ)義信息,也需要細(xì)粒度的紋理信息,這將導(dǎo)致較大的計(jì)算復(fù)雜性和內(nèi)存使用。而對(duì)于分辨率達(dá)到2K甚至更高的圖像,這一挑戰(zhàn)尤為突出。

由于直接預(yù)測(cè)高質(zhì)量分割 mask 具有挑戰(zhàn)性,因此一些研究開(kāi)始集中于 refine 已有分割模型輸出的粗糙 mask。為了實(shí)現(xiàn)高精度的圖像分割,來(lái)自北京交大、南洋理工、字節(jié)跳動(dòng)等的研究者們引入了一種基于擴(kuò)散模型Diffusion去逐步提高mask質(zhì)量的方法。

現(xiàn)有方法

Model-Specific

一類(lèi)常見(jiàn)的 Refinement 方法是 Model-Specific 的,其通過(guò)在已有分割模型中引入一些新模塊,從而為預(yù)測(cè) Mask 補(bǔ)充了更多額外信息,從而增強(qiáng)了已有模型對(duì)于細(xì)節(jié)的感知能力。這一類(lèi)方法中代表性的工作有 PointRend,RefineMask,MaskTransfiner等。然而,這些方法是基于特定模型的改進(jìn),因此不能直接用于 refine 其他分割模型輸出的粗糙 mask。

Model-Agnostic

另一類(lèi) Refinement 方法是 Model-Agnostic 的,其只使用原始圖像和粗糙mask作為輸入信息,如 BPR,SegFix,CascadePSP,CRM 等。由于這類(lèi)方法在 Refinement 過(guò)程中未使用已有模型的中間特征,因此不依賴于特定分割模型,可以用于不同分割模型的 Refinement。然而,盡管這類(lèi)方法能夠有效地提升分割準(zhǔn)確度,但由于粗糙 mask 中存在多種多樣的錯(cuò)誤預(yù)測(cè)(如下圖所示),導(dǎo)致模型無(wú)法穩(wěn)定地修正粗糙 mask 中的全部預(yù)測(cè)錯(cuò)誤。

5d17f98c-a3ad-11ee-8b88-92fbcf53809c.png

實(shí)現(xiàn)目標(biāo)

相比于 Model-Specific 的方法,Model-Agnostic 的方法能夠直接應(yīng)用于不同分割模型的 Refinement,從而有著更高的實(shí)用價(jià)值。更進(jìn)一步地,由于不同分割任務(wù)(語(yǔ)義分割,實(shí)例分割等)的結(jié)果都可以被表示為一系列 binary mask,具有相同的表征形式,在同一個(gè)模型中統(tǒng)一實(shí)現(xiàn)不同分割任務(wù)的 Refinement 同樣是可能的。因此,我們希望實(shí)現(xiàn)能夠應(yīng)用于不同分割模型和分割任務(wù)的通用 Refinement 模型。

如前所述,已有分割模型產(chǎn)生的錯(cuò)誤預(yù)測(cè)是多種多樣的,而想要通過(guò)一個(gè)通用模型一次性地更正這些多樣性的錯(cuò)誤十分困難。面對(duì)這一問(wèn)題,在圖像生成任務(wù)中取得巨大成功的擴(kuò)散概率模型給予了我們啟發(fā):擴(kuò)散概率模型的迭代策略使得模型可以在每一個(gè)時(shí)間步中僅僅消除一部分噪聲,并通過(guò)多步迭代來(lái)不斷接近真實(shí)圖像的分布。這大大降低了一次性擬合出目標(biāo)數(shù)據(jù)分布的難度,從而賦予了擴(kuò)散模型生成高質(zhì)量圖像的能力。

直觀地,如果將擴(kuò)散概率模型的策略遷移到 Refinement 任務(wù)中,可以使得模型在進(jìn)行 Refinement 時(shí)每一步僅關(guān)注一些“最明顯的錯(cuò)誤”,這將降低一次性修正所有錯(cuò)誤預(yù)測(cè)的難度,并可以通過(guò)不斷迭代來(lái)逐漸接近精細(xì)分割結(jié)果,從而使得模型能夠應(yīng)對(duì)更具挑戰(zhàn)性的實(shí)例并持續(xù)糾正錯(cuò)誤,產(chǎn)生精確分割結(jié)果。

在這一想法下,我們提出了一個(gè)新的視角:將粗糙 mask 視作 ground truth 的帶噪版本,并通過(guò)一個(gè)去噪擴(kuò)散過(guò)程來(lái)實(shí)現(xiàn)粗糙 mask 的 Refinement,從而將 Refinement 任務(wù)表示為一個(gè)以圖像為條件,目標(biāo)為精細(xì) mask 的數(shù)據(jù)生成過(guò)程。

算法方案

擴(kuò)散概率模型是一種由前向和反向過(guò)程表示的生成模型,其中前向過(guò)程通過(guò)不斷加入高斯噪聲得到不同程度的帶噪圖像,并訓(xùn)練模型預(yù)測(cè)噪聲;而反向過(guò)程則從純高斯噪聲開(kāi)始逐步迭代去噪,最終采樣出圖像。而將擴(kuò)散概率模型遷移到 Refinement 任務(wù)中,數(shù)據(jù)形式的不同帶來(lái)了以下兩個(gè)問(wèn)題:

(1) 由于自然圖像往往被視作高維高斯變量,將圖像生成的過(guò)程建模為一系列高斯過(guò)程是十分自然的,因此已有的擴(kuò)散概率模型大多基于高斯假設(shè)建立;而我們的目標(biāo)數(shù)據(jù)是 binary mask,通過(guò)高斯過(guò)程擬合這樣一個(gè)離散變量的分布并不合理。

(2) 作為一種分割 Refinement 方法,我們的核心思想是將粗糙 mask 視為帶有噪聲的 ground truth,并通過(guò)消除這種噪聲來(lái)恢復(fù)高質(zhì)量的分割結(jié)果。這意味著我們擴(kuò)散過(guò)程的結(jié)尾應(yīng)當(dāng)收斂到確定性的粗糙 mask(而非純?cè)肼暎@也與已有的擴(kuò)散概率模型不同。

針對(duì)上述問(wèn)題,我們建立了如下圖所示的基于“隨機(jī)狀態(tài)轉(zhuǎn)移”的離散擴(kuò)散過(guò)程。其中,前向過(guò)程將 ground truth 轉(zhuǎn)換為“不同粗糙程度”的 mask,并用于訓(xùn)練;而反向過(guò)程用于模型推理,SegRefiner 從給出的粗糙 mask 開(kāi)始,通過(guò)逐步迭代修正粗糙 mask 中的錯(cuò)誤預(yù)測(cè)區(qū)域。以下將詳細(xì)介紹前向和反向過(guò)程。

5d1d19da-a3ad-11ee-8b88-92fbcf53809c.png

前向過(guò)程

前向過(guò)程的目標(biāo)是將 ground truth 提供的精細(xì) mask 逐步消融為粗糙的 mask,記前向過(guò)程每一步的變量為 5d344984-a3ad-11ee-8b88-92fbcf53809c.jpg,則前向過(guò)程應(yīng)當(dāng)滿足:

(1) 5d37e6b6-a3ad-11ee-8b88-92fbcf53809c.jpg為 ground truth

(2) 5d42c806-a3ad-11ee-8b88-92fbcf53809c.jpg為粗糙 mask

(3) 5d462528-a3ad-11ee-8b88-92fbcf53809c.jpg介于5d37e6b6-a3ad-11ee-8b88-92fbcf53809c.jpg5d42c806-a3ad-11ee-8b88-92fbcf53809c.jpg之間,隨 t 增大逐漸向粗糙 mask 演變 ? ?

基于這些限制條件,我們用隨機(jī)狀態(tài)轉(zhuǎn)移來(lái)表述前向過(guò)程:假設(shè)變量5d462528-a3ad-11ee-8b88-92fbcf53809c.jpg中的每一個(gè)像素都有兩種可能的狀態(tài):精細(xì)和粗糙,處于精細(xì)狀態(tài)的像素值與5d37e6b6-a3ad-11ee-8b88-92fbcf53809c.jpg保持一致,處于粗糙狀態(tài)的像素則取 5d42c806-a3ad-11ee-8b88-92fbcf53809c.jpg的值(即使二者一致)。我們提出了一個(gè)“轉(zhuǎn)移采樣”模塊來(lái)進(jìn)行這一過(guò)程,如上圖右側(cè)所示。在每一個(gè)時(shí)間步,其以當(dāng)前 mask 5d462528-a3ad-11ee-8b88-92fbcf53809c.jpg,粗糙 mask 5d42c806-a3ad-11ee-8b88-92fbcf53809c.jpg以及狀態(tài)轉(zhuǎn)移概率作為輸入。

在前向過(guò)程中,狀態(tài)轉(zhuǎn)移概率描述了當(dāng)前 mask 5d462528-a3ad-11ee-8b88-92fbcf53809c.jpg中每個(gè)像素轉(zhuǎn)移到5d42c806-a3ad-11ee-8b88-92fbcf53809c.jpg中的狀態(tài)的概率。根據(jù)狀態(tài)轉(zhuǎn)移概率進(jìn)行采樣,可以得到后一個(gè)時(shí)間步 5d8a53ec-a3ad-11ee-8b88-92fbcf53809c.jpg 每個(gè)像素的狀態(tài),從而確定其取值。這一模塊確定了一個(gè)“單向”過(guò)程,即只會(huì)發(fā)生“轉(zhuǎn)移到目標(biāo)狀態(tài)”的情況。這一單向性質(zhì)確保了前向過(guò)程會(huì)收斂到5d42c806-a3ad-11ee-8b88-92fbcf53809c.jpg(盡管每一步都是完全隨機(jī)的),從而滿足了上述限制 條件(2),(3)。

通過(guò)重參數(shù)技巧,我們引入了一個(gè)二元隨機(jī)變量5d91e1f2-a3ad-11ee-8b88-92fbcf53809c.jpg來(lái)描述上述過(guò)程:我們將 5da324da-a3ad-11ee-8b88-92fbcf53809c.jpg表示為一個(gè) one-hot 向量,用來(lái)表示中間掩模 5d462528-a3ad-11ee-8b88-92fbcf53809c.jpg中像素 5dab027c-a3ad-11ee-8b88-92fbcf53809c.jpg的狀態(tài),同時(shí)設(shè)置 5dae7812-a3ad-11ee-8b88-92fbcf53809c.jpg5db898f6-a3ad-11ee-8b88-92fbcf53809c.jpg來(lái)表示精細(xì)狀態(tài)和粗糙狀態(tài)。因此,前向過(guò)程可以被表示為:

5dbc6c56-a3ad-11ee-8b88-92fbcf53809c.png

其中 5dbfd530-a3ad-11ee-8b88-92fbcf53809c.jpg為超參數(shù),而 5dc3620e-a3ad-11ee-8b88-92fbcf53809c.jpg對(duì)應(yīng)了上述的狀態(tài)轉(zhuǎn)移概率,5dcdefbc-a3ad-11ee-8b88-92fbcf53809c.jpg是狀態(tài)轉(zhuǎn)移矩陣。則前向過(guò)程的邊緣分布可以表示為:

5dd1ea36-a3ad-11ee-8b88-92fbcf53809c.png

其中 5dd5714c-a3ad-11ee-8b88-92fbcf53809c.jpg。從而我們可以直接獲取任何中間時(shí)間步 5dd8c31a-a3ad-11ee-8b88-92fbcf53809c.jpg的 mask 5d462528-a3ad-11ee-8b88-92fbcf53809c.jpg并用于訓(xùn)練,而無(wú)需逐步采樣 5de2dddc-a3ad-11ee-8b88-92fbcf53809c.jpg

反向過(guò)程

反向擴(kuò)散過(guò)程用于模型推理,目標(biāo)是將粗糙 mask 5d42c806-a3ad-11ee-8b88-92fbcf53809c.jpg逐漸修正為精細(xì) mask 5d37e6b6-a3ad-11ee-8b88-92fbcf53809c.jpg。由于此時(shí)精細(xì) mask 5d37e6b6-a3ad-11ee-8b88-92fbcf53809c.jpg和狀態(tài)轉(zhuǎn)移概率未知,類(lèi)似 DDPM 的做法,我們訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò) 5df5bca4-a3ad-11ee-8b88-92fbcf53809c.jpg,來(lái)預(yù)測(cè)精細(xì) mask 5df92e98-a3ad-11ee-8b88-92fbcf53809c.jpg,表示為:

5dfcab4a-a3ad-11ee-8b88-92fbcf53809c.png

其中 5e09b2b8-a3ad-11ee-8b88-92fbcf53809c.jpg是相應(yīng)的圖像。5e0cf810-a3ad-11ee-8b88-92fbcf53809c.jpg5e10a1cc-a3ad-11ee-8b88-92fbcf53809c.jpg分別表示預(yù)測(cè)的精細(xì) mask 和其置信度分?jǐn)?shù)。這里5e10a1cc-a3ad-11ee-8b88-92fbcf53809c.jpg表示了網(wǎng)絡(luò)對(duì)于5df92e98-a3ad-11ee-8b88-92fbcf53809c.jpg預(yù)測(cè)準(zhǔn)確與否的置信度,故同樣可以被視作5df92e98-a3ad-11ee-8b88-92fbcf53809c.jpg中每個(gè)像素處于“精細(xì)狀態(tài)”的概率。為了獲得反向狀態(tài)轉(zhuǎn)移概率,根據(jù)前向過(guò)程的設(shè)定和貝葉斯定理,延續(xù) DDPM 的做法,我們可以由前向過(guò)程的后驗(yàn)概率和預(yù)測(cè)的5e10a1cc-a3ad-11ee-8b88-92fbcf53809c.jpg得到反向過(guò)程的概率分布,為:? ?

5e2ee920-a3ad-11ee-8b88-92fbcf53809c.png

其中 5e419d0e-a3ad-11ee-8b88-92fbcf53809c.jpg為反向過(guò)程的狀態(tài)轉(zhuǎn)移概率。給定粗糙 mask 5d42c806-a3ad-11ee-8b88-92fbcf53809c.jpg以及相應(yīng)的圖像5e09b2b8-a3ad-11ee-8b88-92fbcf53809c.jpg,我們首先將所有像素初始化為粗糙狀態(tài) 5e4bd31e-a3ad-11ee-8b88-92fbcf53809c.jpg,然后通過(guò)不斷迭代地狀態(tài)轉(zhuǎn)移,逐漸修正 5d42c806-a3ad-11ee-8b88-92fbcf53809c.jpg中預(yù)測(cè)值。下圖為一個(gè)推理過(guò)程的可視化展示。

5e5d6f70-a3ad-11ee-8b88-92fbcf53809c.png

模型結(jié)構(gòu)

任意滿足 5e624504-a3ad-11ee-8b88-92fbcf53809c.jpg形式的網(wǎng)絡(luò)均可滿足我們的要求,這里我們延續(xù)了之前工作的做法,采用 U-Net 作為我們的去噪網(wǎng)絡(luò),將其輸入通道數(shù)修改為4(圖像和 5d462528-a3ad-11ee-8b88-92fbcf53809c.jpg在通道維度上串聯(lián)),并輸出1通道的改進(jìn)掩模。

算法評(píng)估

由于 Refinement 任務(wù)的核心是獲取細(xì)節(jié)精確的分割結(jié)果,在實(shí)驗(yàn)中我們選取了三個(gè)代表性的高質(zhì)量分割數(shù)據(jù)集,分別對(duì)應(yīng)Semantic Segmentation,Instance Segmentation 和 Dichotomous Image Segmentation。

Semantic Segmentation

如表1所示,我們?cè)?BIG 數(shù)據(jù)集上將提出的 SegRefiner 與四種已有方法:SegFix,CascadePSP,CRM 以及 MGMatting 進(jìn)行了對(duì)比。其中前三個(gè)為語(yǔ)義分割的 Refinement 方法,而 MGMatting 使用圖像和 mask 進(jìn)行 Matting 任務(wù),也可以用于 Refinement 任務(wù)。結(jié)果表明,我們提出的 SegRefiner 在 refine 四個(gè)不同語(yǔ)義分割模型的粗糙 mask 時(shí),都在 IoU 和 mBA 兩項(xiàng)指標(biāo)上獲得了明顯提升,且超越了之前的方法。

5e70695e-a3ad-11ee-8b88-92fbcf53809c.png ? ?

Instance Segmentation

實(shí)例分割中,我們選擇了之前的工作廣泛使用的 COCO 數(shù)據(jù)集進(jìn)行測(cè)試,并使用了 LVIS 數(shù)據(jù)集的標(biāo)注。與原始 COCO 標(biāo)注相比,LVIS 標(biāo)注提供了更高質(zhì)量和更詳細(xì)的結(jié)構(gòu),這使得 LVIS 標(biāo)注更適合評(píng)估改進(jìn)模型的性能。

首先,在表2中,我們將提出的SegRefiner與兩種 Model-Agnostic 的實(shí)例分割 Refinement 方法 BPR 和 SegFix 進(jìn)行了比較。結(jié)果表明我們的 SegRefiner 在性能上明顯優(yōu)于這兩種方法。

5e743d40-a3ad-11ee-8b88-92fbcf53809c.png

然后在表3中,我們將 SegRefiner 應(yīng)用于其他7種實(shí)例分割模型。我們的方法在不同準(zhǔn)確度水平的模型上都取得了顯著的增強(qiáng)效果。值得注意的是,當(dāng)應(yīng)用于三種 Model-Specific 的實(shí)例分割 Refinement 模型(包括PointRend、RefineMask 和 Mask TransFiner)時(shí),SegRefiner 依然能穩(wěn)定提升它們的性能,這說(shuō)明 SegRefiner 具有更強(qiáng)大的細(xì)節(jié)感知能力。

5e780dc6-a3ad-11ee-8b88-92fbcf53809c.png

Dichotomous Image Segmentation

Dichotomous Image Segmentation 是一個(gè)較新提出的任務(wù),如下圖所示,其數(shù)據(jù)集包含大量具有復(fù)雜細(xì)節(jié)結(jié)構(gòu)的對(duì)象,因此十分適合評(píng)估我們 SegRefiner 對(duì)細(xì)節(jié)的感知能力。

5e7c5b42-a3ad-11ee-8b88-92fbcf53809c.png

在本實(shí)驗(yàn)中,我們將 SegRefiner 應(yīng)用于6種分割模型,結(jié)果如表4所示。可以看到,我們的SegRefiner在 IoU 和 mBA 兩項(xiàng)指標(biāo)上都明顯提升了每個(gè)分割模型的準(zhǔn)確度。

5e9880d8-a3ad-11ee-8b88-92fbcf53809c.png

可視化展示

5e9ce010-a3ad-11ee-8b88-92fbcf53809c.png

5ea1a910-a3ad-11ee-8b88-92fbcf53809c.png







審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4807

    瀏覽量

    102751
  • CRM
    CRM
    +關(guān)注

    關(guān)注

    1

    文章

    148

    瀏覽量

    21395
  • 圖像分割
    +關(guān)注

    關(guān)注

    4

    文章

    182

    瀏覽量

    18246
  • 高斯噪聲
    +關(guān)注

    關(guān)注

    0

    文章

    11

    瀏覽量

    8416

原文標(biāo)題:NeruIPS 2023 | SegRefiner:通過(guò)擴(kuò)散模型實(shí)現(xiàn)高精度圖像分割

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于擴(kuò)散模型圖像生成過(guò)程

    近年來(lái),擴(kuò)散模型在文本到圖像生成方面取得了巨大的成功,實(shí)現(xiàn)了更高圖像生成質(zhì)量,提高了推理性能,也可以激發(fā)擴(kuò)展創(chuàng)作靈感。 不過(guò)僅憑文本來(lái)控制
    的頭像 發(fā)表于 07-17 11:00 ?3396次閱讀
    基于<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>的<b class='flag-5'>圖像</b>生成過(guò)程

    如何在PyTorch中使用擴(kuò)散模型生成圖像

    除了頂尖的圖像質(zhì)量,擴(kuò)散模型還帶來(lái)了許多其他好處,包括不需要對(duì)抗性訓(xùn)練。對(duì)抗訓(xùn)練的困難是有據(jù)可查的。在訓(xùn)練效率的話題上,擴(kuò)散模型還具有可伸縮
    發(fā)表于 11-22 15:51 ?705次閱讀
    如何在PyTorch中使用<b class='flag-5'>擴(kuò)散</b><b class='flag-5'>模型</b>生成<b class='flag-5'>圖像</b>

    基于GAC模型實(shí)現(xiàn)交互式圖像分割的改進(jìn)算法

    基于GAC模型實(shí)現(xiàn)交互式圖像分割的改進(jìn)算法提出了一種改進(jìn)的交互式圖像分割算法。采用全變分去噪
    發(fā)表于 09-19 09:19

    使用全卷積網(wǎng)絡(luò)模型實(shí)現(xiàn)圖像分割

    OpenCv-C++-深度神經(jīng)網(wǎng)絡(luò)(DNN)模塊-使用FCN模型實(shí)現(xiàn)圖像分割
    發(fā)表于 05-28 07:33

    基于多級(jí)混合模型圖像分割方法

    本文研究了典型的基于區(qū)域的圖像分割方法主動(dòng)形狀模型(Active Shape Model, ASM)和基于邊緣的圖像分割snake 算法,分
    發(fā)表于 07-08 09:58 ?20次下載

    圖像分割—基于圖的圖像分割

    圖像分割—基于圖的圖像分割圖像分割—基于圖的圖像
    發(fā)表于 11-19 16:17 ?0次下載

    基于改進(jìn)活動(dòng)輪廓模型圖像分割

    基于改進(jìn)活動(dòng)輪廓模型圖像分割_王芳
    發(fā)表于 01-07 19:00 ?0次下載

    基于像素聚類(lèi)進(jìn)行圖像分割的算法

    B型心臟超聲圖像分割是計(jì)算心功能參數(shù)前重要的一步。針對(duì)超聲圖像的低分辨率影響分割精度及基于模型
    發(fā)表于 12-06 16:44 ?0次下載
    基于像素聚類(lèi)進(jìn)行<b class='flag-5'>圖像</b><b class='flag-5'>分割</b>的算法

    基于活動(dòng)輪廓模型圖像分割

    圖像分割的活動(dòng)輪廓模型中,保留拉普拉斯擴(kuò)散項(xiàng)的切線方向分量;再引入兩個(gè)權(quán)重參數(shù)控制切線方向和法線方向有偏的擴(kuò)散,以提高
    發(fā)表于 12-22 14:25 ?1次下載

    基于圖像局部灰度差異的噪聲圖像分割模型

    圖像分割在計(jì)算機(jī)視覺(jué)處理技術(shù)中占據(jù)重要位置,是圖像處理和分析的關(guān)鍵步驟。基于水平集方法的活動(dòng)輪廓模型被成功應(yīng)用于在圖像
    發(fā)表于 04-17 11:41 ?3次下載

    基于SEGNET模型圖像語(yǔ)義分割方法

    使用原始 SEGNET模型對(duì)圖像進(jìn)行語(yǔ)義分割時(shí),未對(duì)圖像中相鄰像素點(diǎn)間的關(guān)系進(jìn)行考慮,導(dǎo)致同一目標(biāo)中像素點(diǎn)類(lèi)別預(yù)測(cè)結(jié)果不一致。通過(guò)在 SEG
    發(fā)表于 05-27 14:54 ?15次下載

    一種高精度的肝臟圖像自動(dòng)分割算法

    在利用卷積神經(jīng)網(wǎng)絡(luò)分割肝臟邊界較模糊的影像數(shù)據(jù)時(shí)容易丟失位置信息,導(dǎo)致分割精度較低。針對(duì)該問(wèn)題,提出一種基于分水嶺修正與U-Net模型相結(jié)合的肝臟
    發(fā)表于 05-27 15:17 ?2次下載

    SAM分割模型是什么?

    SAM是一類(lèi)處理圖像分割任務(wù)的通用模型。與以往只能處理某種特定類(lèi)型圖片的圖像分割模型不同,SAM
    的頭像 發(fā)表于 05-20 09:30 ?2732次閱讀

    近期分割模型發(fā)展情況

    SAM(Segment Anything Model)Meta 的 FAIR 實(shí)驗(yàn)室發(fā)布的一種最先進(jìn)的圖像分割模型,該模型將自然語(yǔ)言處理領(lǐng)域的prompt范式引入計(jì)算機(jī)視覺(jué)領(lǐng)域,可以
    的頭像 發(fā)表于 05-22 16:26 ?1157次閱讀
    近期<b class='flag-5'>分割</b>大<b class='flag-5'>模型</b>發(fā)展情況

    圖像分割與語(yǔ)義分割中的CNN模型綜述

    圖像分割與語(yǔ)義分割是計(jì)算機(jī)視覺(jué)領(lǐng)域的重要任務(wù),旨在將圖像劃分為多個(gè)具有特定語(yǔ)義含義的區(qū)域或?qū)ο蟆>矸e神經(jīng)網(wǎng)絡(luò)(CNN)作為深度學(xué)習(xí)的一種核心模型
    的頭像 發(fā)表于 07-09 11:51 ?1753次閱讀