女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線(xiàn)課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

目標(biāo)跟蹤新的建模方式

CVer ? 來(lái)源:CVer ? 2023-05-16 16:00 ? 次閱讀

如果模型知道目標(biāo)在哪,那么我們只需要教模型讀出目標(biāo)的位置,而不需要顯式地進(jìn)行分類(lèi)、回歸。對(duì)于這項(xiàng)工作,研究者們希望可以啟發(fā)人們探索目標(biāo)跟蹤等視頻任務(wù)的自回歸式序列生成建模。 自回歸式的序列生成模型在諸多自然語(yǔ)言處理任務(wù)中一直占據(jù)著重要地位,特別是最近ChatGPT的出現(xiàn),讓人們更加驚嘆于這種模型的強(qiáng)大生成能力和潛力。 最近,微軟亞洲研究院與大連理工大學(xué)的研究人員提出了一種使用序列生成模型來(lái)完成視覺(jué)目標(biāo)跟蹤任務(wù)的新框架SeqTrack,來(lái)將跟蹤建模成目標(biāo)坐標(biāo)序列的生成任務(wù)。目前的目標(biāo)跟蹤框架,一般把目標(biāo)跟蹤拆分為分類(lèi)、回歸、角點(diǎn)預(yù)測(cè)等多個(gè)子任務(wù),然后使用多個(gè)定制化的預(yù)測(cè)頭和損失函數(shù)來(lái)完成這些任務(wù)。而SeqTrack通過(guò)將跟蹤建模成單純的序列生成任務(wù),不僅擺脫了冗余的預(yù)測(cè)頭和損失函數(shù),也在多個(gè)數(shù)據(jù)集上取得了優(yōu)秀的性能。

1.新的目標(biāo)跟蹤框架,將跟蹤建模為序列生成任務(wù),一個(gè)簡(jiǎn)潔而有效的新基線(xiàn);

2.摒棄冗余的預(yù)測(cè)頭和損失函數(shù),僅使用樸素的Transformer和交叉熵?fù)p失,具有較高的可擴(kuò)展性。

一 、研究動(dòng)機(jī)

現(xiàn)在比較先進(jìn)的目標(biāo)跟蹤方法采用了“分而治之”的策略,即將跟蹤問(wèn)題解耦成多個(gè)子任務(wù),例如中心點(diǎn)預(yù)測(cè)、前景/背景二分類(lèi)、邊界框回歸、角點(diǎn)預(yù)測(cè)等。盡管在各個(gè)跟蹤數(shù)據(jù)機(jī)上取得了優(yōu)秀的性能,但這種“分而治之”的策略存在以下兩個(gè)缺點(diǎn):

1、模型復(fù)雜:每個(gè)子任務(wù)都需要一個(gè)定制化的預(yù)測(cè)頭,導(dǎo)致框架變得復(fù)雜,不利于擴(kuò)展

2、損失函數(shù)冗余:每個(gè)預(yù)測(cè)頭需要一個(gè)或多個(gè)損失函數(shù),引入額外超參數(shù),使訓(xùn)練困難

9fdef7d2-f3ba-11ed-90ce-dac502259ad0.png

圖1 目前常見(jiàn)的跟蹤框架

研究者認(rèn)為,如果模型知道目標(biāo)在圖像中的位置,那么只需要簡(jiǎn)單地教模型讀出目標(biāo)邊界框即可,不需要用“分而治之”的策略去顯式地進(jìn)行分類(lèi)和回歸等。為此,作者采用了自回歸式的序列生成建模來(lái)解決目標(biāo)跟蹤任務(wù),教模型把目標(biāo)的位置作為一句話(huà)去“讀”出來(lái)。

9ffce198-f3ba-11ed-90ce-dac502259ad0.gif

圖2 跟蹤的序列生成建模

二、方法概覽

研究者將目標(biāo)邊界框的四個(gè)坐標(biāo)轉(zhuǎn)化為由離散值token組成的序列,然后訓(xùn)練SeqTrack模型逐個(gè)token地預(yù)測(cè)出這個(gè)序列。在模型結(jié)構(gòu)上,SeqTrack采用了原汁原味的encoder-decoder形式的transformer,方法整體框架圖如下圖3所示:

a005dcf8-f3ba-11ed-90ce-dac502259ad0.png

圖3 SeqTrack結(jié)構(gòu)圖

Encoder提取模板與搜索區(qū)域圖片的視覺(jué)特征,decoder參考這些視覺(jué)特征,完成序列的生成。序列包含構(gòu)成邊界框的 x,y,w,h token,以及兩個(gè)特殊的 start 和 end token,分別表示生成的開(kāi)始與結(jié)束。 在推理時(shí),start token告知模型開(kāi)始生成序列,然后模型依次生成 x,y,w,h ,每個(gè)token的生成都會(huì)參考前序已生成好的token,例如,生成 w 時(shí),模型會(huì)以 [start, x, y] 作為輸入。當(dāng) [x,y,w,h] 生成完,模型會(huì)輸出end token,告知用戶(hù)預(yù)測(cè)完成。 為了保證訓(xùn)練的高效,訓(xùn)練時(shí)token的生成是并行的,即 [start, x,y,w,h] 被同時(shí)輸入給模型,模型同時(shí)預(yù)測(cè)出 [x,y,w,h, end] 。為了保證推理時(shí)的自回歸性質(zhì),在訓(xùn)練時(shí)對(duì)decoder中的自注意力層中添加了因果性的attention mask,以保證每個(gè)token的預(yù)測(cè)僅取決于它前序的token,attention mask如下圖4所示。

a0285724-f3ba-11ed-90ce-dac502259ad0.png

圖3 Attention mask,第 i 行第 j 列的橘色格子代表第生成第 i 個(gè)輸出token時(shí),允許觀察到第 j 個(gè)輸入token,而白色格子代表不可觀察。

圖像上連續(xù)的坐標(biāo)值被均勻地離散化為了[1, 4000]中的整數(shù)。每個(gè)整數(shù)可以被視為一個(gè)單詞,構(gòu)成了單詞表 V ,x,y,w,h 四個(gè)坐標(biāo)從單詞表 V 中取值。

與常見(jiàn)的序列模型類(lèi)似,在訓(xùn)練時(shí),SeqTrack使用交叉熵?fù)p失來(lái)最大化目標(biāo)值基于前序token的預(yù)測(cè)值、搜索區(qū)域、模板三者的條件概率:

a0313600-f3ba-11ed-90ce-dac502259ad0.png

在推理時(shí),使用最大似然從單詞表 V 中為每個(gè)token取值:

a04bcf24-f3ba-11ed-90ce-dac502259ad0.png

通過(guò)這種方式,僅需要交叉熵?fù)p失即可完成模型的訓(xùn)練,大大簡(jiǎn)化了復(fù)雜度。 除此之外,研究者們還設(shè)計(jì)了合適的方式,在不影響模型與損失函數(shù)的情況下,引入了在線(xiàn)模板更新、窗口懲罰等技術(shù)來(lái)集成跟蹤的先驗(yàn)知識(shí),這里不再贅述,具體細(xì)節(jié)請(qǐng)參考論文。

三、實(shí)驗(yàn)結(jié)果

研究者開(kāi)發(fā)了四種不同大小的模型,以取得性能與速度之間的平衡,并在8個(gè)跟蹤數(shù)據(jù)集上驗(yàn)證了這些模型的性能。

a0561dee-f3ba-11ed-90ce-dac502259ad0.png

表1 SeqTrack模型參數(shù)

如下表2所示,在大尺度數(shù)據(jù)集LaSOT, LaSOText,TrackingNet, GOT-10k上,SeqTrack取得了優(yōu)秀的性能。例如,與同樣使用ViT-B和256輸入圖片分辨率的OSTrack-256相比,SeqTrack-B256在四個(gè)數(shù)據(jù)集上都取得了更好的結(jié)果。

a08569a0-f3ba-11ed-90ce-dac502259ad0.png

表2大規(guī)模數(shù)據(jù)集性能

如表3所示,SeqTrack在包含多種不常見(jiàn)目標(biāo)類(lèi)別的TNL2K數(shù)據(jù)集上取得了領(lǐng)先的性能,驗(yàn)證了SeqTrack的泛化性。在小規(guī)模數(shù)據(jù)集NFS和UAV123上也都取得了具有競(jìng)爭(zhēng)力的性能。

a08f5618-f3ba-11ed-90ce-dac502259ad0.png

表3額外數(shù)據(jù)集性能

圖4所示,在VOT競(jìng)賽數(shù)據(jù)集上,分別使用邊界框測(cè)試和分割掩膜測(cè)試,SeqTrack都取得了優(yōu)秀的性能。

a0aa5e68-f3ba-11ed-90ce-dac502259ad0.png

圖4 VOT2020性能

這樣簡(jiǎn)單的框架具有良好的可擴(kuò)展性,只需要將信息引入到序列構(gòu)建中,而無(wú)需更改網(wǎng)絡(luò)結(jié)構(gòu)。例如,研究者們進(jìn)行了額外的實(shí)驗(yàn)來(lái)嘗試在序列中引入時(shí)序信息。具體來(lái)說(shuō),將輸入序列擴(kuò)展到多幀,包含了目標(biāo)邊界框的歷史值。表4顯示這樣的簡(jiǎn)單擴(kuò)展提升了基線(xiàn)模型的性能。

a0b39c6c-f3ba-11ed-90ce-dac502259ad0.png

圖5 時(shí)序序列示意圖

a0e8d896-f3ba-11ed-90ce-dac502259ad0.png

表4 時(shí)序序列結(jié)果

四、結(jié)語(yǔ)

本文提出了目標(biāo)跟蹤的新的建模方式:序列生成式建模。它將目標(biāo)跟蹤建模為了序列生成任務(wù),僅使用簡(jiǎn)單的Transformer結(jié)構(gòu)和交叉熵?fù)p失,簡(jiǎn)化了跟蹤框架。大量實(shí)驗(yàn)表明了序列生成建模的優(yōu)秀性能和潛力。在文章的最后,研究者希望通過(guò)本文給視覺(jué)目標(biāo)跟蹤和其他視頻任務(wù)的序列建模提供靈感。在未來(lái)工作,研究者將嘗試進(jìn)一步融合時(shí)序信息,以及擴(kuò)展到多模態(tài)任務(wù)。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 建模
    +關(guān)注

    關(guān)注

    1

    文章

    315

    瀏覽量

    61390
  • 函數(shù)
    +關(guān)注

    關(guān)注

    3

    文章

    4367

    瀏覽量

    64055
  • Transformer
    +關(guān)注

    關(guān)注

    0

    文章

    148

    瀏覽量

    6365

原文標(biāo)題:CVPR 2023 | 大連理工和微軟提出SeqTrack:目標(biāo)跟蹤新框架

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    視頻跟蹤目標(biāo)取差器)-基于DM8168實(shí)現(xiàn)的自動(dòng)視頻跟蹤

    、運(yùn)動(dòng)方向等自動(dòng)獲取目標(biāo)。[td]跟蹤算法質(zhì)心跟蹤算法:這種跟蹤方式用于跟蹤有界
    發(fā)表于 09-05 11:14

    視頻跟蹤目標(biāo)跟蹤算法簡(jiǎn)介(上海凱視力成信息科技有限...

    。www.casevision.net質(zhì)心跟蹤算法(Centroid)這種跟蹤方式用于跟蹤有界目標(biāo)如飛機(jī),
    發(fā)表于 09-29 08:59

    基于OPENCV的運(yùn)動(dòng)目標(biāo)跟蹤實(shí)現(xiàn)

    CAMSHIFT算法是一種基于顏色直方圖的目標(biāo)跟蹤算法。在視頻跟蹤過(guò)程中,CAMSHIFT算法利用選定目標(biāo)的顏色直方圖模型得到每幀圖像的顏色投影圖,并根據(jù)上一幀
    發(fā)表于 12-23 14:21

    無(wú)人機(jī)編隊(duì)視頻序列中的多目標(biāo)精確跟蹤

    無(wú)人機(jī)編隊(duì)視頻序列中的多目標(biāo)精確跟蹤::針對(duì)無(wú)人機(jī)編隊(duì)視頻序列中的多目標(biāo)精確跟蹤的要求,使用STK(satellitetoolkit)三維建模
    發(fā)表于 03-18 16:21 ?19次下載

    目標(biāo)跟蹤目標(biāo)匹配的特征融合算法研究

    基于特征融合的目標(biāo)跟蹤中,目標(biāo)的特征由于某些干擾導(dǎo)致準(zhǔn)確度較低?;谪惾~斯框架的特征融合算法進(jìn)行目標(biāo)跟蹤時(shí),不能達(dá)到最佳的
    發(fā)表于 07-25 15:15 ?0次下載

    基于KCFSE結(jié)合尺度預(yù)測(cè)的目標(biāo)跟蹤方法

    目標(biāo)跟蹤是計(jì)算機(jī)視覺(jué)領(lǐng)域的一個(gè)基本問(wèn)題,其主要應(yīng)用于視頻監(jiān)控,人機(jī)交與機(jī)器人視覺(jué)感知等場(chǎng)景。目標(biāo)跟蹤可分為短時(shí)間目標(biāo)
    發(fā)表于 10-28 11:05 ?1次下載
    基于KCFSE結(jié)合尺度預(yù)測(cè)的<b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>方法

    機(jī)器人目標(biāo)跟蹤

    為了實(shí)現(xiàn)復(fù)雜環(huán)境下移動(dòng)機(jī)器人目標(biāo)跟蹤,提出多特征分塊匹配的跟蹤算法。該算法對(duì)目標(biāo)區(qū)域進(jìn)行分塊,利用顏色、深度特征對(duì)各塊圖像進(jìn)行特征匹配,實(shí)現(xiàn)目標(biāo)
    發(fā)表于 11-07 17:29 ?14次下載
    機(jī)器人<b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>

    基于融合的快速目標(biāo)跟蹤算法

    提出了一種基于融合的快速目標(biāo)跟蹤算法。該方法將目標(biāo)預(yù)測(cè)模型、目標(biāo)模板匹配以及目標(biāo)空間信息融合到統(tǒng)一框架內(nèi)。該方法通過(guò)預(yù)測(cè)模型,預(yù)測(cè)下一幀中
    發(fā)表于 12-05 09:11 ?0次下載
    基于融合的快速<b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>算法

    一種實(shí)時(shí)運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤算法

    針對(duì)圖像序列中運(yùn)動(dòng)目標(biāo)檢測(cè)、跟蹤的難點(diǎn)問(wèn)題,提出了一種實(shí)時(shí)運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤算法。該算法基于自適應(yīng)背景建模,獲取運(yùn)動(dòng)
    發(fā)表于 12-12 17:35 ?3次下載

    如何使用連續(xù)離散問(wèn)題聯(lián)合求解和群組分析進(jìn)行多目標(biāo)跟蹤技術(shù)研究

    目標(biāo)跟蹤技術(shù)通過(guò)對(duì)不同目標(biāo)之間的相互社會(huì)關(guān)系進(jìn)行建模,改善單個(gè)目標(biāo)跟蹤性能,并且快速檢測(cè)和預(yù)
    發(fā)表于 12-21 15:03 ?1次下載
    如何使用連續(xù)離散問(wèn)題聯(lián)合求解和群組分析進(jìn)行多<b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>技術(shù)研究

    基于多尺度自適應(yīng)權(quán)重的目標(biāo)跟蹤算法

    遮擋、目標(biāo)外觀劇烈變化等,往往會(huì)丟失目標(biāo)。文中分析原算法跟蹤原理得到了產(chǎn)生目標(biāo)跟蹤丟失的原因?;贏SLA算法,提出了3點(diǎn)改進(jìn)方法:1)適應(yīng)
    發(fā)表于 06-16 15:32 ?7次下載

    視頻目標(biāo)跟蹤分析

    視頻目標(biāo)跟蹤要求在已知第一幀感興趣物體的位置和尺度信息的情況下,對(duì)該目標(biāo)在后續(xù)視頻幀中進(jìn)行持續(xù)的定位和尺度估計(jì)W。廣義的目標(biāo)跟蹤通常包含單
    的頭像 發(fā)表于 07-05 11:24 ?1792次閱讀

    最常見(jiàn)的目標(biāo)跟蹤算法

    對(duì)象跟蹤問(wèn)題一直是計(jì)算機(jī)視覺(jué)的熱點(diǎn)任務(wù)之一,簡(jiǎn)單的可以分為單目標(biāo)跟蹤與多目標(biāo)跟蹤,最常見(jiàn)的目標(biāo)
    的頭像 發(fā)表于 09-14 16:20 ?3119次閱讀

    利用TRansformer進(jìn)行端到端的目標(biāo)檢測(cè)及跟蹤

    目標(biāo)跟蹤(MOT)任務(wù)的關(guān)鍵挑戰(zhàn)是跟蹤目標(biāo)下的時(shí)間建模。現(xiàn)存的用檢測(cè)跟蹤的方法采用簡(jiǎn)單的heu
    的頭像 發(fā)表于 04-18 09:12 ?1263次閱讀

    目標(biāo)跟蹤初探(DeepSORT)

    目前主流的目標(biāo)跟蹤算法都是基于Tracking-by-Detecton策略,即基于目標(biāo)檢測(cè)的結(jié)果來(lái)進(jìn)行目標(biāo)跟蹤。DeepSORT運(yùn)用的就是這
    的頭像 發(fā)表于 08-07 15:37 ?1209次閱讀
    <b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>初探(DeepSORT)