女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Segment Anything又能分辨類別了:Meta/UTAustin提出全新開放類分割模型

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:智能感知與物聯(lián)網(wǎng)技術(shù)研 ? 2023-04-17 11:40 ? 次閱讀

前幾日,Meta 推出了「分割一切」AI模型Segment Anything,令網(wǎng)友直呼 CV 不存在了?!而在另一篇被CVPR 2023 收錄的論文中,Meta、UTAustin 聯(lián)合提出了新的開放語言風(fēng)格模型(open-vocabulary segmentation, OVSeg),它能讓 Segment Anything 模型知道所要分隔的類別。

從效果上來看,OVSeg 可以與 Segment Anything 結(jié)合,完成細(xì)粒度的開放語言分割。比如下圖 1 中識別花朵的種類:sunflowers (向日葵)、white roses (白玫瑰)、 chrysanthemums (菊花)、carnations (康乃馨)、green dianthus (綠石竹)。

42988964-dc61-11ed-bfe3-dac502259ad0.jpg

即刻體驗(yàn):https://huggingface.co/spaces/facebook/ov-seg

項(xiàng)目地址:https://jeff-liangf.github.io/projects/ovseg/

研究背景

開放式詞匯語義分割旨在根據(jù)文本描述將圖像分割成語義區(qū)域,這些區(qū)域在訓(xùn)練期間可能沒有被看到。最近的兩階段方法首先生成類別不可知的掩膜提案,然后利用預(yù)訓(xùn)練的視覺-語言模型(例如 CLIP)對被掩膜的區(qū)域進(jìn)行分類。研究者確定這種方法的性能瓶頸是預(yù)訓(xùn)練的 CLIP 模型,因?yàn)樗谘谀D像上表現(xiàn)不佳。

為了解決這個問題,研究者建議在一組被掩膜的圖像區(qū)域和它們對應(yīng)的文本描述的收集的數(shù)據(jù)上對 CLIP 進(jìn)行微調(diào)。研究者使用 CLIP 將掩膜圖像區(qū)域與圖像字幕中的名詞進(jìn)行匹配,從而收集訓(xùn)練數(shù)據(jù)。與具有固定類別的更精確和手動注釋的分割標(biāo)簽(例如 COCO-Stuff)相比,研究者發(fā)現(xiàn)嘈雜但多樣的數(shù)據(jù)集可以更好地保留 CLIP 的泛化能力。

除了對整個模型進(jìn)行微調(diào)之外,研究者還使用了被掩膜圖像中的「空白」區(qū)域,使用了他們稱之為掩膜提示微調(diào)的方法。

實(shí)驗(yàn)表明,掩膜提示微調(diào)可以在不修改任何 CLIP 權(quán)重的情況下帶來顯著的改進(jìn),并且它可以進(jìn)一步改善完全微調(diào)的模型。特別是當(dāng)在 COCO 上進(jìn)行訓(xùn)練并在 ADE20K-150 上進(jìn)行評估時,研究者的最佳模型實(shí)現(xiàn)了 29.6%的 mIoU,比先前的最先進(jìn)技術(shù)高出 8.5%。開放式詞匯通用模型首次與 2017 年的受監(jiān)督專家模型的性能匹配,而不需要特定于數(shù)據(jù)集的適應(yīng)。

42cad0f4-dc61-11ed-bfe3-dac502259ad0.png

論文地址:https://arxiv.org/pdf/2210.04150.pdf

論文解讀

動機(jī)

研究者的分析表明,預(yù)訓(xùn)練的 CLIP 在掩膜建議上表現(xiàn)不佳,成為兩階段方法的性能瓶頸。

42d9c4e2-dc61-11ed-bfe3-dac502259ad0.png

CLIP 是使用很少的數(shù)據(jù)增強(qiáng)在自然圖像上進(jìn)行預(yù)訓(xùn)練的。

兩階段的開放詞匯語義分割方法首先生成類別不可知的掩膜建議,然后利用預(yù)訓(xùn)練的 CLIP 進(jìn)行開放詞匯分類。CLIP 模型的輸入是裁剪的掩膜圖像,與自然圖像存在巨大的領(lǐng)域差距。

我們的分析表明,預(yù)訓(xùn)練的 CLIP 在掩膜圖像上表現(xiàn)不佳。

方法

研究者的模型包括一個分割模型(例如 MaskFormer)和一個 CLIP 模型。

42fbbe8a-dc61-11ed-bfe3-dac502259ad0.png

他們首先訓(xùn)練修改后的 MaskFormer 作為開放詞匯分割的基線(第 3.1 節(jié)),然后從圖像標(biāo)題中收集多樣的掩膜-類別對(第 3.2 節(jié)),并適應(yīng) CLIP 用于掩膜圖像(第 3.3 節(jié))。

結(jié)果

研究者首次展示開放詞匯的通用模型可以在沒有數(shù)據(jù)集特定調(diào)整的情況下與受監(jiān)督的專業(yè)模型的性能相匹配。

432f4890-dc61-11ed-bfe3-dac502259ad0.png

更多分類示例如下所示。

435ced18-dc61-11ed-bfe3-dac502259ad0.jpg

438a02d0-dc61-11ed-bfe3-dac502259ad0.png

審核編輯 :李倩

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1092

    瀏覽量

    41038
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    34294

    瀏覽量

    275485
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3488

    瀏覽量

    50021

原文標(biāo)題:分割一切后,Segment Anything又能分辨類別了:Meta/UTAustin提出全新開放類分割模型

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    如何在SAM時代下打造高效的高性能計(jì)算大模型訓(xùn)練平臺

    Segment Anything Model (SAM)是Meta 公司最近推出的一個創(chuàng)新AI 模型,專門用于計(jì)算機(jī)視覺領(lǐng)域圖像分割任務(wù)。借
    的頭像 發(fā)表于 08-21 04:02 ?2967次閱讀
    如何在SAM時代下打造高效的高性能計(jì)算大<b class='flag-5'>模型</b>訓(xùn)練平臺

    基于像素聚進(jìn)行圖像分割的算法

    B型心臟超聲圖像分割是計(jì)算心功能參數(shù)前重要的一步。針對超聲圖像的低分辨率影響分割精度及基于模型分割算法需要大樣本訓(xùn)練集的問題,結(jié)合B型心臟
    發(fā)表于 12-06 16:44 ?0次下載
    基于像素聚<b class='flag-5'>類</b>進(jìn)行圖像<b class='flag-5'>分割</b>的算法

    通用AI大模型Segment Anything在醫(yī)學(xué)影像分割的性能究竟如何?

    為了全面評估分析SAM在醫(yī)學(xué)影像分割上的表現(xiàn),團(tuán)隊(duì)收集并標(biāo)準(zhǔn)化了52個公共數(shù)據(jù)集,最終整理構(gòu)建了一個包含16種影像模態(tài)和68種生物醫(yī)學(xué)領(lǐng)域分割目標(biāo)(表1)的大型醫(yī)學(xué)影像分割數(shù)據(jù)集COSMOS 553K,數(shù)據(jù)集的展示見圖1,統(tǒng)計(jì)信
    的頭像 發(fā)表于 05-06 09:57 ?2299次閱讀
    通用AI大<b class='flag-5'>模型</b><b class='flag-5'>Segment</b> <b class='flag-5'>Anything</b>在醫(yī)學(xué)影像<b class='flag-5'>分割</b>的性能究竟如何?

    AI+制造業(yè):機(jī)器視覺開啟掘金新大陸

    4月6日,Meta官方博客宣布推出新AI模型 Segment Anything Model(SAM)分割一切
    的頭像 發(fā)表于 05-15 16:32 ?1516次閱讀
    AI+制造業(yè):機(jī)器視覺開啟掘金新大陸

    SAM分割模型是什么?

    SAM是一處理圖像分割任務(wù)的通用模型。與以往只能處理某種特定類型圖片的圖像分割模型不同,SAM可以處理所有類型的圖像。
    的頭像 發(fā)表于 05-20 09:30 ?2763次閱讀

    近期分割模型發(fā)展情況

    SAM(Segment Anything Model)Meta 的 FAIR 實(shí)驗(yàn)室發(fā)布的一種最先進(jìn)的圖像分割模型,該
    的頭像 發(fā)表于 05-22 16:26 ?1176次閱讀
    近期<b class='flag-5'>分割</b>大<b class='flag-5'>模型</b>發(fā)展情況

    Segment Anything量化加速有多強(qiáng)!

    分割一切,大家一起失業(yè)!”——近期,這樣一句話在社交媒體上大火!這講的就是 Segment Anything Model(簡稱 “SAM” )。
    的頭像 發(fā)表于 06-11 14:24 ?1496次閱讀
    <b class='flag-5'>Segment</b> <b class='flag-5'>Anything</b>量化加速有多強(qiáng)!

    分割一切?Segment Anything量化加速實(shí)戰(zhàn)

    SAM 是一個由 Meta AI 實(shí)驗(yàn)室推出的強(qiáng)大人工智能圖像分割應(yīng)用,可以自動識別哪些圖像像素屬于一個對象,并且對圖像中各個對象進(jìn)行自動風(fēng)格處理,可廣泛用于分析科學(xué)圖像、編輯照片等。
    的頭像 發(fā)表于 06-16 16:47 ?1463次閱讀
    <b class='flag-5'>分割</b>一切?<b class='flag-5'>Segment</b> <b class='flag-5'>Anything</b>量化加速實(shí)戰(zhàn)

    YOLOv8最新版本支持SAM分割一切

    分割任何模型Segment Anything Model - SAM) 是一種突破性的圖像分割模型
    的頭像 發(fā)表于 06-18 11:42 ?1921次閱讀
    YOLOv8最新版本支持SAM<b class='flag-5'>分割</b>一切

    Meta開源I-JEPA,“人”AI模型

    Meta 宣布推出一個全新的 AI 模型 Image Joint Embedding Predictive Architecture (I-JEPA),可通過對圖像的自我監(jiān)督學(xué)習(xí)來學(xué)習(xí)世界的抽象表征
    的頭像 發(fā)表于 06-18 17:47 ?1315次閱讀
    <b class='flag-5'>Meta</b>開源I-JEPA,“<b class='flag-5'>類</b>人”AI<b class='flag-5'>模型</b>

    基于 Transformer 的分割與檢測方法

    來源:機(jī)器之心 SAM (Segment Anything )作為一個視覺的分割基礎(chǔ)模型,在短短的 3 個月時間吸引了很多研究者的關(guān)注和跟進(jìn)。如果你想系統(tǒng)地了解 SAM 背后的技術(shù),并
    的頭像 發(fā)表于 07-05 10:18 ?1417次閱讀
    基于 Transformer 的<b class='flag-5'>分割</b>與檢測方法

    ICCV 2023 | 超越SAM!EntitySeg:更少的數(shù)據(jù),更高的分割質(zhì)量

    ,需要在不同的圖像領(lǐng)域、新的物體類別以及各種圖像分辨率和質(zhì)量下都能夠保持魯棒性。為了解決這個問題,早在 SAM[6] 模型一年之前,一種不考慮類別的實(shí)體
    的頭像 發(fā)表于 10-02 10:40 ?1144次閱讀
    ICCV 2023 | 超越SAM!EntitySeg:更少的數(shù)據(jù),更高的<b class='flag-5'>分割</b>質(zhì)量

    Meta發(fā)布全新開源大模型Llama 3.1

    科技巨頭Meta近期震撼發(fā)布了其最新的開源人工智能(AI)模型——Llama 3.1,這一舉措標(biāo)志著Meta在AI領(lǐng)域的又一重大突破。Meta創(chuàng)始人馬克·扎克伯格親自站臺,盛贊Llam
    的頭像 發(fā)表于 07-24 18:25 ?1725次閱讀

    Meta Llama 3.1系列模型可在Google Cloud上使用

    我們很高興宣布,Llama 3.1 系列模型已添加到 Vertex AI Model Garden,這包括全新的 405B,即 Meta 迄今為止功能最強(qiáng)大、用途最廣泛的模型。這些
    的頭像 發(fā)表于 08-02 15:42 ?663次閱讀

    Meta發(fā)布新AI模型Meta Motivo,旨在提升元宇宙體驗(yàn)

    Meta公司近日宣布,將推出一款名為Meta Motivo的全新人工智能模型。該模型具備控制類似人類的數(shù)字代理動作的能力,有望為元宇宙的用戶
    的頭像 發(fā)表于 12-16 10:34 ?869次閱讀