女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

PVT++:通用的端對(duì)端預(yù)測(cè)性目標(biāo)跟蹤框架

CVer ? 來(lái)源:CVer ? 2023-07-19 16:06 ? 次閱讀

本文提出通用的端對(duì)端預(yù)測(cè)性跟蹤框架PVT++,旨在解決目標(biāo)跟蹤的部署時(shí)的延遲問題。多種預(yù)訓(xùn)練跟蹤器在PVT++框架下訓(xùn)練后“在線”跟蹤效果大幅提高,某些情況下甚至取得了與“離線”設(shè)定相當(dāng)?shù)男Ч?/p>

7930ca10-2584-11ee-962d-dac502259ad0.jpg

PVT++ 論文:https://arxiv.org/abs/2211.11629 代碼:https://github.com/Jaraxxus-Me/PVT_pp

引言

單目標(biāo)跟蹤(SOT)是計(jì)算機(jī)視覺領(lǐng)域研究已久的問題。給定視頻第一幀目標(biāo)的初始位置與尺度,目標(biāo)跟蹤算法需要在后續(xù)的每一幀確定初始目標(biāo)的位置與尺度。將這類視覺方法部署在機(jī)器人上可以實(shí)現(xiàn)監(jiān)測(cè)、跟隨、自定位以及避障等智能應(yīng)用。大多數(shù)目標(biāo)跟蹤算法的研究與評(píng)估都基于“離線”假設(shè),具體而言,算法按照(離線)視頻的幀號(hào)逐幀處理,得出的結(jié)果與對(duì)應(yīng)幀相比以進(jìn)行準(zhǔn)確率/成功率計(jì)算。

然而,這一假設(shè)在機(jī)器人部署中通常是難以滿足的,因?yàn)樗惴ū旧淼难舆t在機(jī)器人硬件上不可忽視,當(dāng)算法完成當(dāng)前幀時(shí),世界已經(jīng)發(fā)生了變化,導(dǎo)致跟蹤器輸出的結(jié)果與實(shí)際世界的目標(biāo)當(dāng)前狀態(tài)不匹配。換言之,如圖二(a) 所示,由于算法的延遲總存在(即使算法達(dá)到實(shí)時(shí)幀率),輸出的結(jié)果“過時(shí)”是不可避免的。

這一思想起源于ECCV2020 “Towards Streaming Perception”。

由于機(jī)載算力受限,平臺(tái)/相機(jī)運(yùn)動(dòng)劇烈,我們發(fā)現(xiàn)這一問題在無(wú)人機(jī)跟蹤中尤為嚴(yán)重,如圖一所示,相比“離線”評(píng)估,考慮算法延遲的“在線”評(píng)估可能使得其表現(xiàn)大幅下降。

795581c0-2584-11ee-962d-dac502259ad0.jpg

圖一. “離線”評(píng)估與“在線”評(píng)估中各個(gè)跟蹤器的表現(xiàn)以及PVT++在“在線”跟蹤中的效果。灰色圖標(biāo)代表離線評(píng)估,藍(lán)色圖標(biāo)代表相同方法在線評(píng)估,紅色圖標(biāo)代表相同方法使用PVT++轉(zhuǎn)換為預(yù)測(cè)性跟蹤器。

如圖二(b)所示,為解決這一問題,預(yù)測(cè)性跟蹤器需要提前預(yù)測(cè)世界未來(lái)的狀態(tài),以彌補(bǔ)算法延遲導(dǎo)致的滯后性。

這一理論詳見ECCV2020 “Towards Streaming Perception”以及我們過往的工作“Predictive Visual Tracking (PVT)"。

而與以往的在跟蹤器后使用卡爾曼濾波的方法不同,在本文中,我們從跟蹤器能提供的視覺特征出發(fā),研發(fā)了端對(duì)端的預(yù)測(cè)性目標(biāo)跟蹤框架(PVT++)。我們的PVT++有效利用了預(yù)訓(xùn)練跟蹤器可提供的視覺特征并可從數(shù)據(jù)中學(xué)習(xí)目標(biāo)運(yùn)動(dòng)的規(guī)律,進(jìn)而做出更準(zhǔn)確的運(yùn)動(dòng)預(yù)測(cè)。

7982ba64-2584-11ee-962d-dac502259ad0.jpg

圖二. (a) 常規(guī)的跟蹤器有延遲,所以結(jié)果總是滯后的。(b) 預(yù)測(cè)性跟蹤提前預(yù)測(cè)世界的狀態(tài),彌補(bǔ)延遲帶來(lái)的滯后性。(c) 與基于卡爾曼濾波的方法不同,我們的PVT++有效利用了跟蹤器自帶的視覺特征并可從數(shù)據(jù)中學(xué)習(xí)運(yùn)動(dòng)的規(guī)律,進(jìn)而做出更準(zhǔn)確的預(yù)測(cè)。

PVT++是一個(gè)通用的可學(xué)習(xí)框架,能適用不同類型的跟蹤器,如圖一所示,在某些場(chǎng)景下,使用PVT++后甚至能取得與“離線”評(píng)估相當(dāng)?shù)摹霸诰€”結(jié)果。

貢獻(xiàn)

我們研發(fā)了端對(duì)端的預(yù)測(cè)性目標(biāo)跟蹤框架PVT++,該通用框架適用于不同類型的跟蹤器并能普遍帶來(lái)大幅效果提升。

為實(shí)現(xiàn)“從數(shù)據(jù)中發(fā)現(xiàn)目標(biāo)運(yùn)動(dòng)的規(guī)律”,我們提出了相對(duì)運(yùn)動(dòng)因子,有效解決了PVT++的泛化問題。

為引入跟蹤器已有的視覺特征實(shí)現(xiàn)穩(wěn)定預(yù)測(cè),我們?cè)O(shè)計(jì)了輔助分支 和 聯(lián)合訓(xùn)練機(jī)制,不僅有效利用了跟蹤器的視覺知識(shí)而且節(jié)省了計(jì)算資源。

除了PVT++方法,我們還提出了能夠進(jìn)一步量化跟蹤器性能的的 新型評(píng)估指標(biāo) e-LAE,該指標(biāo)不僅實(shí)現(xiàn)了考慮延遲的評(píng)估,而且可以區(qū)分實(shí)時(shí)的跟蹤器。

方法介紹

為了將整個(gè)問題用嚴(yán)謹(jǐn)?shù)臄?shù)學(xué)公式成體系地定義出來(lái),我們花了很多時(shí)間反復(fù)打磨PVT++的方法部分?jǐn)⑹?,然而不可避免符?hào)偏多結(jié)構(gòu)也比較復(fù)雜(被reviewer們多次吐槽...),讀起來(lái)有些晦澀難懂容易lost,在此僅提供一些我intuitive的想法,以方便讀者能夠更快理解文章的核心思想。

7997d0fc-2584-11ee-962d-dac502259ad0.jpg

圖三. (a) PVT++宏觀框架與 (b) e-LAE評(píng)估指標(biāo)

e-LAE評(píng)估指標(biāo)

與“離線”設(shè)定不同,“在線”跟蹤(LAE)依照算法實(shí)際部署的情況設(shè)計(jì),具體而言,其遵循以下兩條原則:

79d08da2-2584-11ee-962d-dac502259ad0.png

類似的評(píng)估方式最早被提出于ECCV2020 “Towards Streaming Perception”,在以前的研究PVT中,我們針對(duì)跟蹤算法做了上述調(diào)整。

然而,這樣的評(píng)估方式有一個(gè)缺陷,假設(shè)算法速度快于世界幀率(例如圖三下方的算法時(shí)間戳),無(wú)論算法有多快,評(píng)估時(shí)的算法滯后永遠(yuǎn)是一幀。換言之,假設(shè)有兩個(gè)精度一樣的跟蹤器A與B,A的速度>B>世界幀率,那么這樣的評(píng)估指標(biāo)得到的A,B的結(jié)果是一樣的,這樣以來(lái),LAE便無(wú)法將實(shí)時(shí)跟蹤器的速度納入評(píng)估中,無(wú)法對(duì)實(shí)時(shí)跟蹤器進(jìn)行有效比較。

7a153772-2584-11ee-962d-dac502259ad0.png

基于e-LAE,我們?cè)跈C(jī)器人平臺(tái)AGX Xavier上進(jìn)行了眾多跟蹤器詳盡的實(shí)驗(yàn),涉及17個(gè)跟蹤器,三個(gè)數(shù)據(jù)集,詳見原文圖五,e-LAE可以區(qū)分一些精度接近而速度有一些差距的實(shí)時(shí)跟蹤器,如HiFT與SiamAPN++(原文Remark 2)。我們正在進(jìn)一步檢查所有結(jié)果,最終確認(rèn)后也會(huì)將評(píng)估的原始結(jié)果開源。

PVT++

無(wú)論算法的速度有多快,其延遲總存在,故而我們?cè)O(shè)計(jì)了端對(duì)端預(yù)測(cè)性跟蹤框架彌補(bǔ)延遲。如圖三 (a) 所示,PVT++的結(jié)構(gòu)非常直觀簡(jiǎn)單,跟蹤器模塊即普通的已有的(基于深度學(xué)習(xí)的)跟蹤算法,預(yù)測(cè)器接受跟蹤器輸出的歷史運(yùn)動(dòng)m ,跟蹤器的歷史視覺特征x,y,以及預(yù)設(shè)的落后幀數(shù)Δ作為輸入,輸出未來(lái)幀的目標(biāo)位置。

7a323264-2584-11ee-962d-dac502259ad0.png

PVT++的結(jié)構(gòu)看上去雖然簡(jiǎn)單直觀,但使用離線數(shù)據(jù)訓(xùn)練這一套框架使之協(xié)助在線無(wú)人機(jī)跟蹤并非易事,其獨(dú)道之處在于以下三點(diǎn):

相對(duì)運(yùn)動(dòng)因子:我們發(fā)現(xiàn)訓(xùn)練PVT++會(huì)遇到一個(gè)核心問題,訓(xùn)練集與測(cè)試集的域差距。試想,如果用于訓(xùn)練PVT++的數(shù)據(jù)來(lái)自VID,LaSOT,GOT10k這些目標(biāo)運(yùn)動(dòng)尺度較小,方向速度較規(guī)律的數(shù)據(jù)集,PVT++自然會(huì)嘗試擬合這些運(yùn)動(dòng)規(guī)律而難以泛化到目標(biāo)運(yùn)動(dòng)更復(fù)雜,尺度更大的無(wú)人機(jī)跟蹤場(chǎng)景。為了解決這一問題,我們將PVT++的訓(xùn)練目標(biāo)改為學(xué)習(xí)/擬合特殊設(shè)計(jì)的相對(duì)運(yùn)動(dòng)因子,即原文公式(4):

這里pfj可以簡(jiǎn)單理解為過去幾幀的平均速度,在左側(cè)的公式中,我們可以先假設(shè)目標(biāo)是勻速運(yùn)動(dòng)的,即未來(lái)幀的相對(duì)位置變化正比于未來(lái)幀的時(shí)間間隔和平均速度,此后我們的神經(jīng)網(wǎng)絡(luò)只需要在這一假設(shè)上做出調(diào)整即為未來(lái)的真實(shí)運(yùn)動(dòng)。這一設(shè)計(jì)也就使得預(yù)測(cè)器需要學(xué)習(xí)的東西是“相對(duì)于勻速運(yùn)動(dòng)假設(shè)的偏差值”,即相對(duì)運(yùn)動(dòng)因子,而非絕對(duì)的運(yùn)動(dòng)值。我們發(fā)現(xiàn)這一預(yù)測(cè)目標(biāo)在大多數(shù)時(shí)候與目標(biāo)的絕對(duì)運(yùn)動(dòng)是無(wú)關(guān)的,故而訓(xùn)練出的網(wǎng)絡(luò)也就不易擬合訓(xùn)練集中的絕對(duì)運(yùn)動(dòng),有著更好的泛化性。這一設(shè)計(jì)是PVT++能work的核心原因。預(yù)測(cè)器輸出的相對(duì)運(yùn)動(dòng)會(huì)用于后續(xù)設(shè)計(jì)與真值的L1損失作為訓(xùn)練損失函數(shù)。

輕量化預(yù)測(cè)器結(jié)構(gòu):另一個(gè)問題是,預(yù)測(cè)器本身必須足夠輕量才能避免預(yù)測(cè)模塊引入額外的延遲,否則會(huì)導(dǎo)致整個(gè)系統(tǒng)失效。為此,我們?cè)O(shè)計(jì)了輕量有效的網(wǎng)絡(luò)架構(gòu),包含encoder - interaction - decoder三部分,并能兼容運(yùn)動(dòng)軌跡信息與視覺特征,具體如圖四,其中大多數(shù)網(wǎng)絡(luò)層都可以有著非常小的通道數(shù)以實(shí)現(xiàn)極低的延遲(詳見原文表3)。此外,我們預(yù)測(cè)器的設(shè)計(jì)也最大程度上復(fù)用了跟蹤器能提供的視覺特征,因此節(jié)省了提取視覺特征所需要的計(jì)算資源。

7a4a775c-2584-11ee-962d-dac502259ad0.jpg

圖四. PVT++中預(yù)測(cè)器的輕量化網(wǎng)絡(luò)架構(gòu)。

如何有效利用跟蹤器已有的視覺特征:最后,為了使輕量的預(yù)測(cè)器做出穩(wěn)健的預(yù)測(cè),我們?cè)O(shè)計(jì)了一系列訓(xùn)練策略使得參數(shù)量很少的預(yù)測(cè)器有效利用(較大型)預(yù)訓(xùn)練跟蹤器的能提供的魯棒視覺表征。具體而言,我們發(fā)現(xiàn)以下兩點(diǎn)設(shè)計(jì)尤為重要:

輔助分支:預(yù)測(cè)器的視覺分支(圖四(b))需要當(dāng)前的相對(duì)運(yùn)動(dòng)信息作為監(jiān)督信號(hào)(圖四的虛線框部分)才能用于預(yù)測(cè)未來(lái)的運(yùn)動(dòng)。詳見原文5.3節(jié)。

聯(lián)合訓(xùn)練:在訓(xùn)練PVT++時(shí),跟蹤器模塊需要在早期的訓(xùn)練epoch中以較小的學(xué)習(xí)率聯(lián)合預(yù)測(cè)器一起訓(xùn)練,進(jìn)而使視覺特征既適用跟蹤器做定位,又適合預(yù)測(cè)器做預(yù)測(cè)。詳見附錄B中的訓(xùn)練設(shè)定與我們的開源代碼。

更多關(guān)于方法的細(xì)節(jié)介紹歡迎大家參考我們的原文(p.s.,我們的附錄B提供了一個(gè)符號(hào)表輔助閱讀...)

實(shí)驗(yàn)部分

全文的實(shí)驗(yàn)設(shè)計(jì)包括e-LAE的評(píng)估(原文圖五)與PVT++的效果、分析兩部分,在這里著重介紹PVT++有關(guān)的實(shí)驗(yàn)。

設(shè)置

為了公平比較基線跟蹤器,PVT++采用與他們訓(xùn)練相同的LaSOT+GOT10k+VID作為訓(xùn)練集(均為視頻)(實(shí)際上僅用VID也可以取得較好效果,詳見附錄L)。具體而言,我們直接加載了跟蹤器原作者提供的模型參數(shù)作為我們的跟蹤器模塊,再使用離線數(shù)據(jù)訓(xùn)練PVT++。

評(píng)估時(shí)我們使用了四個(gè)無(wú)人機(jī)跟蹤權(quán)威數(shù)據(jù)集DTB70,UAVDT,UAV20L以及UAV123,廣泛驗(yàn)證了PVT++的泛化性。

整體效果

7a70a6c0-2584-11ee-962d-dac502259ad0.jpg

表一

PVT++的整體效果如表一所示,我們共將四個(gè)跟蹤器轉(zhuǎn)化為了預(yù)測(cè)性跟蹤器,在四個(gè)無(wú)人機(jī)跟蹤數(shù)據(jù)集中,PVT++能起到廣泛而顯著的效果??梢园l(fā)現(xiàn)PVT++在某些場(chǎng)景下能達(dá)到超過60%的提升,甚至與跟蹤器的離線效果相當(dāng)。另外我們也發(fā)現(xiàn)并不是所有的情況下視覺信息都是有效可靠的,例如在DTB70中,僅用PVT++的motion分支也可以起到一定的效果。

消融實(shí)驗(yàn)

7a9cc3b8-2584-11ee-962d-dac502259ad0.jpg

這里著重展示一下消融實(shí)驗(yàn)表四,如果不預(yù)測(cè)相對(duì)運(yùn)動(dòng)因子而是直接用絕對(duì)運(yùn)動(dòng)的值作為預(yù)測(cè)目標(biāo)(和損失函數(shù)設(shè)計(jì)),預(yù)測(cè)器完全不work,甚至?xí)胴?fù)面影響。當(dāng)引入視覺特征以后,輔助分支的監(jiān)督和聯(lián)合訓(xùn)練都是必要的,其中聯(lián)合訓(xùn)練的重要性更大。

與其他方法對(duì)比

7ac94a00-2584-11ee-962d-dac502259ad0.jpg

表五

如表五,我們嘗試了直接在跟蹤器后加入卡爾曼濾波(即沿用ECCV2020 “streaming”的思想)以及我們之前雙濾波(PVT)的方案,并且在審稿人的建議下設(shè)計(jì)了可學(xué)習(xí)的基線方法(具體而言,我們將卡爾曼濾波中的噪聲項(xiàng)作為可學(xué)習(xí)參數(shù))。這些方法都沒有利用跟蹤器已有的視覺特征,所以綜合效果差于聯(lián)合了運(yùn)動(dòng)與視覺特征的PVT++。

可視化

7afb9604-2584-11ee-962d-dac502259ad0.jpg

圖五. PVT++與卡爾曼濾波的可視化對(duì)比

在圖五中的三個(gè)序列中,我們發(fā)現(xiàn)卡爾曼濾波預(yù)測(cè)器很難處理目標(biāo)平面內(nèi)旋轉(zhuǎn)以及無(wú)人機(jī)視角變化的情況,在這些挑戰(zhàn)中,引入視覺信息進(jìn)行目標(biāo)尺度預(yù)測(cè)是尤為有效的。

另外本文也進(jìn)行了更為詳盡的實(shí)驗(yàn),如屬性分析、與其他運(yùn)動(dòng)預(yù)測(cè)方法(如NEXT)的對(duì)比、PVT++作用在最新的基于transformer的跟蹤器等,歡迎大家參閱我們的附錄。

局限性與討論

PVT++的局限性在于兩點(diǎn):

預(yù)測(cè)器使用的視覺特征并不總是魯棒,我們發(fā)現(xiàn)在DTB70這類目標(biāo)運(yùn)動(dòng)速度很快導(dǎo)致圖片模糊/目標(biāo)出視野,但目標(biāo)運(yùn)動(dòng)本身很規(guī)律的數(shù)據(jù)集中其實(shí)單靠運(yùn)動(dòng)分支就可以起到很好的效果。

訓(xùn)練策略有些復(fù)雜,特別是聯(lián)合訓(xùn)練時(shí)跟蹤器模塊在早期epoch用較小學(xué)習(xí)率微調(diào)這一些細(xì)節(jié)我們嘗試了很多次實(shí)驗(yàn)才發(fā)現(xiàn)。

e-LAE的局限性在于可復(fù)現(xiàn)性與平臺(tái)依賴性:

由于這套在線評(píng)估系統(tǒng)與算法的實(shí)際延遲緊密相關(guān),而延遲又與硬件平臺(tái)的狀態(tài)有關(guān),我們發(fā)現(xiàn)甚至同一型號(hào)的硬件上的同一實(shí)驗(yàn)結(jié)果也會(huì)略有不同(就是說甚至同一臺(tái)AGX放久了好像也會(huì)稍微慢一點(diǎn)....)。我們已經(jīng)嘗試在同一硬件上集中多次運(yùn)行以盡可能降低硬件的不穩(wěn)定性帶來(lái)的影響并會(huì)將原始結(jié)果開源以方便大家復(fù)現(xiàn)結(jié)果。另外我們也提供了一個(gè)“模擬”AGX硬件的腳本,可以將硬件上統(tǒng)計(jì)的延遲時(shí)間直接使用(而不是每次都一定要在機(jī)器人硬件上運(yùn)行),詳見我們的開源代碼。

預(yù)測(cè)性“在線”目標(biāo)跟蹤依然是一個(gè)相當(dāng)困難的研究問題,可能并不是增大數(shù)據(jù)量/模型參數(shù)量能輕易解決的,仍有著較大的提升空間?,F(xiàn)在視覺領(lǐng)域正快速涌現(xiàn)一批批“奇觀”,在線延遲也potentially有著其他的解決方案值得研究。譬如最近有一篇比較出圈的工作叫OmniMotion,我們能不能依賴點(diǎn)的correspondence,考慮從目標(biāo)上每個(gè)point的運(yùn)動(dòng)規(guī)律出發(fā),推理物體local到global的未來(lái)運(yùn)動(dòng)?這樣也許能實(shí)現(xiàn)比PVT++更出彩的效果。

另外將算法延遲問題引入如今大火的一些foundation model研究中也是有意思的方向。譬如SAM和DINOv2的視覺特征是不是比ImageNet pre-train的ResNet更適合做視覺運(yùn)動(dòng)預(yù)測(cè)?如果是的話又該怎么處理這些超大規(guī)模預(yù)訓(xùn)練出的視覺特征?或許可以從TrackAnything入手研究。

致謝

PVT++是我本科期間的最后一項(xiàng)工作,算得上是本科的收官之作了,雖然看上去沒有很fancy的cv概念,工程量也很大,但我個(gè)人非常喜歡,可能是我近三年實(shí)驗(yàn)上最扎實(shí)的工作了,當(dāng)時(shí)發(fā)現(xiàn)相對(duì)運(yùn)動(dòng)因子和聯(lián)合訓(xùn)練帶來(lái)巨大的提升那種欣喜和意外是難以言喻的。該工作從第一次討論(2022年初)到如今中稿已經(jīng)是整整一年半,期間磕磕碰碰遇到了不少銳評(píng),困難,與坎坷(差點(diǎn)就打算永遠(yuǎn)掛在arvix上了quqqq),附錄甚至在多輪審稿中修修補(bǔ)補(bǔ)到了Appendix M(都快夠一個(gè)正文了就是說><)。非常感謝在此期間合作的子淵,杰哥,一鳴大哥,三位老師,以及CMU的朋友們每次耐心的討論修改與對(duì)我的鼓勵(lì)支持。

本文初稿完成于2022年暑期,是我和子淵上半年在上海期智研究院與趙行老師合作的項(xiàng)目。MARS Lab是一個(gè)氛圍很好的實(shí)驗(yàn)室,大家有著可靠的強(qiáng)大實(shí)力卻又都溫和而謙虛,可謂志同道合。我不久前回國(guó)在云錦路西岸也受了老師同學(xué)們很多照顧,討論產(chǎn)生了不少idea,非常期待未來(lái)可能的合作交流。22年春季正值上海疫情嚴(yán)峻,非常感謝當(dāng)時(shí)研究院的老師、同學(xué)們提供的幫助。我們主要受 ECCV2020 “Towards Streaming Perception” 啟發(fā),我們的代碼基于目標(biāo)跟蹤知名開源庫(kù) pysot,在此向有關(guān)的作者、開發(fā)者們致以誠(chéng)摯的謝意。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4698

    瀏覽量

    94735
  • 框架
    +關(guān)注

    關(guān)注

    0

    文章

    404

    瀏覽量

    17790
  • 目標(biāo)跟蹤
    +關(guān)注

    關(guān)注

    2

    文章

    88

    瀏覽量

    15039

原文標(biāo)題:ICCV 2023 | 漲點(diǎn)!PVT++:通用的端對(duì)端預(yù)測(cè)性目標(biāo)跟蹤框架

文章出處:【微信號(hào):CVer,微信公眾號(hào):CVer】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    無(wú)線傳感網(wǎng)多簇頭協(xié)助的目標(biāo)跟蹤(二)

    重新建立跟蹤體系.當(dāng)所有的簇頭節(jié)點(diǎn)都監(jiān)測(cè)不到目標(biāo)信號(hào)時(shí)說明該目標(biāo)離開監(jiān)測(cè)區(qū)域,恢復(fù)初始狀態(tài),除哨兵節(jié)點(diǎn)之外,其余節(jié)點(diǎn)睡眠.  4 仿真實(shí)驗(yàn)及結(jié)果分析  4.1 仿真環(huán)境  為了驗(yàn)證本文算法的有效
    發(fā)表于 11-13 16:21

    基于kalman預(yù)測(cè)和自適應(yīng)模板的目標(biāo)相關(guān)跟蹤研究

    文中提出了一種基于kalman預(yù)測(cè)和自適應(yīng)模板的目標(biāo)相關(guān)跟蹤算法。通過kalman預(yù)測(cè)下一幀圖像中目標(biāo)的狀態(tài),縮小整個(gè)圖像上
    發(fā)表于 12-28 10:53 ?21次下載
    基于kalman<b class='flag-5'>預(yù)測(cè)</b>和自適應(yīng)模板的<b class='flag-5'>目標(biāo)</b>相關(guān)<b class='flag-5'>跟蹤</b>研究

    目標(biāo)跟蹤目標(biāo)匹配的特征融合算法研究

    基于特征融合的目標(biāo)跟蹤中,目標(biāo)的特征由于某些干擾導(dǎo)致準(zhǔn)確度較低?;谪惾~斯框架的特征融合算法進(jìn)行目標(biāo)跟蹤
    發(fā)表于 07-25 15:15 ?0次下載

    基于KCFSE結(jié)合尺度預(yù)測(cè)目標(biāo)跟蹤方法

    目標(biāo)跟蹤是計(jì)算機(jī)視覺領(lǐng)域的一個(gè)基本問題,其主要應(yīng)用于視頻監(jiān)控,人機(jī)交與機(jī)器人視覺感知等場(chǎng)景。目標(biāo)跟蹤可分為短時(shí)間目標(biāo)
    發(fā)表于 10-28 11:05 ?1次下載
    基于KCFSE結(jié)合尺度<b class='flag-5'>預(yù)測(cè)</b>的<b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>方法

    基于融合的快速目標(biāo)跟蹤算法

    提出了一種基于融合的快速目標(biāo)跟蹤算法。該方法將目標(biāo)預(yù)測(cè)模型、目標(biāo)模板匹配以及目標(biāo)空間信息融合到統(tǒng)
    發(fā)表于 12-05 09:11 ?0次下載
    基于融合的快速<b class='flag-5'>目標(biāo)</b><b class='flag-5'>跟蹤</b>算法

    改進(jìn)霍夫森林框架的多目標(biāo)跟蹤算法

    針對(duì)單目視覺對(duì)多個(gè)相似的目標(biāo)跟蹤因遮擋等因素影響而失效的問題,提出一種基于改進(jìn)霍夫森林框架的多目標(biāo)跟蹤算法。在將多
    發(fā)表于 12-14 17:09 ?0次下載

    最常見的目標(biāo)跟蹤算法

    對(duì)象跟蹤問題一直是計(jì)算機(jī)視覺的熱點(diǎn)任務(wù)之一,簡(jiǎn)單的可以分為單目標(biāo)跟蹤與多目標(biāo)跟蹤,最常見的目標(biāo)
    的頭像 發(fā)表于 09-14 16:20 ?3161次閱讀

    采用帶有transformer的框架獲取對(duì)應(yīng)集合結(jié)果

    最近將學(xué)習(xí)的方式引入點(diǎn)云配準(zhǔn)中取得了成功,但許多工作都側(cè)重于學(xué)習(xí)特征描述符,并依賴于最近鄰特征匹配和通過RANSAC進(jìn)行離群值過濾,以獲得姿態(tài)估計(jì)的最終對(duì)應(yīng)集合。在這項(xiàng)工作中,我們推測(cè)注意機(jī)制可以取代顯式特征匹配和RANSAC的作用,從而提出一個(gè)
    的頭像 發(fā)表于 10-09 14:37 ?896次閱讀
    采用帶有transformer的<b class='flag-5'>端</b>到<b class='flag-5'>端</b><b class='flag-5'>框架</b>獲取對(duì)應(yīng)集合結(jié)果

    DIMP:Learning Discriminative Model Prediction for Tracking 學(xué)習(xí)判別模型預(yù)測(cè)跟蹤

    階段在線學(xué)習(xí)魯棒的特定于目標(biāo)的外觀模型。為了能夠進(jìn)行的培訓(xùn),目標(biāo)模型的在線學(xué)習(xí)因此需要自身嵌入到跟蹤體系結(jié)構(gòu)中。由于這些困難,流行的孿
    的頭像 發(fā)表于 01-12 09:28 ?1381次閱讀
    DIMP:Learning Discriminative Model Prediction for Tracking 學(xué)習(xí)判別模型<b class='flag-5'>預(yù)測(cè)</b>的<b class='flag-5'>跟蹤</b>

    利用TRansformer進(jìn)行目標(biāo)檢測(cè)及跟蹤

    目標(biāo)跟蹤(MOT)任務(wù)的關(guān)鍵挑戰(zhàn)是跟蹤目標(biāo)下的時(shí)間建模。現(xiàn)存的用檢測(cè)跟蹤的方法采用簡(jiǎn)單的heuristics,如空間或外觀相似
    的頭像 發(fā)表于 04-18 09:12 ?1284次閱讀

    PowerBEV的高效新型框架基于流變形的后處理方法

    探索?,F(xiàn)有的從環(huán)繞攝像頭進(jìn)行BEV實(shí)例預(yù)測(cè)的方法依賴于多任務(wù)自回歸設(shè)置以及復(fù)雜的后處理,以便以時(shí)空一致的方式預(yù)測(cè)未來(lái)的實(shí)例。在本文中,我們不同于這中范例,提出了一個(gè)名為PowerBEV的高效新型
    的頭像 發(fā)表于 06-25 16:06 ?827次閱讀
    PowerBEV的高效新型<b class='flag-5'>端</b>到<b class='flag-5'>端</b><b class='flag-5'>框架</b>基于流變形的后處理方法

    PVT++通用對(duì)預(yù)測(cè)跟蹤框架

    本文提出通用對(duì)預(yù)測(cè)跟蹤框架
    的頭像 發(fā)表于 07-30 22:30 ?2235次閱讀
    <b class='flag-5'>PVT++</b>:<b class='flag-5'>通用</b>的<b class='flag-5'>端</b>對(duì)<b class='flag-5'>端</b><b class='flag-5'>預(yù)測(cè)</b><b class='flag-5'>性</b><b class='flag-5'>跟蹤</b><b class='flag-5'>框架</b>

    理想汽車自動(dòng)駕駛模型實(shí)現(xiàn)

    理想汽車在感知、跟蹤預(yù)測(cè)、決策和規(guī)劃等方面都進(jìn)行了模型化,最終實(shí)現(xiàn)了的模型。這種模型不僅完全模型化,還能夠虛擬化,即在模擬環(huán)境中進(jìn)行訓(xùn)練和測(cè)試。
    發(fā)表于 04-12 12:17 ?663次閱讀
    理想汽車自動(dòng)駕駛<b class='flag-5'>端</b>到<b class='flag-5'>端</b>模型實(shí)現(xiàn)

    ZETA智能?紅牛:助力國(guó)際飲料巨頭實(shí)現(xiàn)生產(chǎn)設(shè)備預(yù)測(cè)維護(hù)

    為了更好地實(shí)現(xiàn)設(shè)備的預(yù)測(cè)維護(hù),紅牛在泰國(guó)等地的工廠選擇了基于ZETA智能的預(yù)測(cè)維護(hù)方案,實(shí)現(xiàn)其工廠設(shè)備的監(jiān)測(cè)與管理,提升運(yùn)營(yíng)效率。
    的頭像 發(fā)表于 04-22 10:53 ?605次閱讀
    ZETA<b class='flag-5'>端</b>智能?紅牛:助力國(guó)際飲料巨頭實(shí)現(xiàn)生產(chǎn)設(shè)備<b class='flag-5'>預(yù)測(cè)</b><b class='flag-5'>性</b>維護(hù)

    動(dòng)量感知規(guī)劃的自動(dòng)駕駛框架MomAD解析

    自動(dòng)駕駛框架實(shí)現(xiàn)了感知與規(guī)劃的無(wú)縫集成,但通常依賴于一次軌跡預(yù)測(cè),這可能導(dǎo)致控制不穩(wěn)定,并且對(duì)單頓感知中的遮擋問題較為敏感。為解決這
    的頭像 發(fā)表于 03-18 09:31 ?762次閱讀
    動(dòng)量感知規(guī)劃的<b class='flag-5'>端</b>到<b class='flag-5'>端</b>自動(dòng)駕駛<b class='flag-5'>框架</b>MomAD解析