女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一個(gè)通用的時(shí)空預(yù)測(cè)學(xué)習(xí)框架

CVer ? 來(lái)源:CVer ? 2023-06-19 10:27 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

本文介紹CVPR2023的中稿論文:Temporal Attention Unit: Towards Efficient Spatiotemporal Predictive Learning。這篇論文介紹了一種用于高效時(shí)空預(yù)測(cè)的時(shí)間注意力單元(Temporal Attention Unit,TAU)。該方法改進(jìn)了現(xiàn)有框架,對(duì)時(shí)間和空間上的依賴(lài)關(guān)系分別學(xué)習(xí),提出了時(shí)間維度上的可并行化時(shí)序注意力單元,實(shí)現(xiàn)了高效的視頻預(yù)測(cè)。

引言

時(shí)空預(yù)測(cè)學(xué)習(xí)是一種通過(guò)學(xué)習(xí)歷史幀來(lái)預(yù)測(cè)未來(lái)幀的自監(jiān)督學(xué)習(xí)范式,可以利用海量的無(wú)標(biāo)注視頻數(shù)據(jù)學(xué)習(xí)豐富的視覺(jué)信息,在氣象預(yù)測(cè)、交通流量預(yù)測(cè)、人體姿勢(shì)變化估計(jì)等領(lǐng)域有著廣泛的應(yīng)用場(chǎng)景。時(shí)空預(yù)測(cè)學(xué)習(xí)需要考慮視頻中的空間相關(guān)性和時(shí)間演變規(guī)律,這是一項(xiàng)具有挑戰(zhàn)性的任務(wù)。傳統(tǒng)的方法主要基于循環(huán)神經(jīng)網(wǎng)絡(luò)來(lái)建模時(shí)間依賴(lài)關(guān)系,但是RNN有著計(jì)算效率低、難以捕捉長(zhǎng)期依賴(lài)、容易出現(xiàn)梯度消失或爆炸等缺點(diǎn)。因此,如何設(shè)計(jì)一個(gè)高效、準(zhǔn)確、穩(wěn)定的時(shí)空預(yù)測(cè)學(xué)習(xí)模型,是一個(gè)亟待解決的問(wèn)題。為了解決這個(gè)問(wèn)題,我們首先研究現(xiàn)有的方法,并提出時(shí)空預(yù)測(cè)學(xué)習(xí)的通用框架,如下圖所示。

2d2d77a2-0df2-11ee-962d-dac502259ad0.png

TAU

如下圖所示,TAU模型不使用循環(huán)神經(jīng)網(wǎng)絡(luò),而是使用注意力機(jī)制來(lái)并行化地處理時(shí)間演變。TAU模型將時(shí)空注意力分解為兩個(gè)部分:幀內(nèi)靜態(tài)注意力和幀間動(dòng)態(tài)注意力。幀內(nèi)靜態(tài)注意力使用小核心深度卷積和擴(kuò)張卷積來(lái)實(shí)現(xiàn)大感受野,從而捕捉幀內(nèi)的長(zhǎng)距離依賴(lài)關(guān)系。幀間動(dòng)態(tài)注意力使用通道間注意力的方式來(lái)學(xué)習(xí)不同幀之間的通道權(quán)重,從而捕捉幀間的變化趨勢(shì)。

2d380db6-0df2-11ee-962d-dac502259ad0.png

TAU模塊將時(shí)間注意力分為兩部分:幀內(nèi)靜態(tài)注意力和幀間動(dòng)態(tài)注意力。前者通過(guò)獲得的大感受野捕捉幀內(nèi)的長(zhǎng)期依賴(lài)關(guān)系;而后者以擠壓和激發(fā)的方式學(xué)習(xí)通道的注意力權(quán)重,以捕捉時(shí)間線上的時(shí)序演變。最后的注意力是動(dòng)態(tài)注意力和靜態(tài)注意力結(jié)合的產(chǎn)物。受ViTs和大核卷積的啟發(fā),研究者使用了深度卷積(DW Conv)、深度擴(kuò)張卷積(DW-D Conv)和1x1通道卷積來(lái)建模大核卷積。

2d430680-0df2-11ee-962d-dac502259ad0.png 此外,我們還提出了一種新穎的差分散度正則化方法,用于優(yōu)化時(shí)空預(yù)測(cè)學(xué)習(xí)的損失函數(shù)。該方法同時(shí)考慮了幀內(nèi)誤差和幀間變化量。通過(guò)將預(yù)測(cè)幀和真實(shí)幀之間的差分轉(zhuǎn)換為概率分布,并計(jì)算它們之間的KL散度,來(lái)強(qiáng)制模型學(xué)習(xí)到視頻中固有的變化規(guī)律。差分散度正則化(differential divergence regularization)是預(yù)測(cè)幀與其對(duì)應(yīng)的真實(shí)幀之間的Kullback-Leibler(KL)散度。具體而言,它是預(yù)測(cè)幀差分和真實(shí)幀差分之間的KL散度。 2d5d6afc-0df2-11ee-962d-dac502259ad0.png

τ 代表溫度參數(shù),經(jīng)驗(yàn)性地將其設(shè)置為0.1以增強(qiáng)概率分布的差異。直觀來(lái)說(shuō),均方誤差損失(MSE)僅考慮幀內(nèi)誤差,而差分散度正則化克服了這一缺點(diǎn),迫使模型學(xué)習(xí)連續(xù)幀之間的差異并意識(shí)到固有的變化,以改善模型的預(yù)測(cè)。

因此目標(biāo)損失函數(shù):

2d7bb44e-0df2-11ee-962d-dac502259ad0.png

實(shí)驗(yàn)

Moving MNIST

下圖是在Moving MNIST上測(cè)試的兩個(gè)實(shí)例,對(duì)于隨機(jī)運(yùn)動(dòng)的數(shù)字,預(yù)測(cè)與目標(biāo)的絕對(duì)差異很細(xì)微,說(shuō)明TAU能很好地處理時(shí)空預(yù)測(cè):

2d87e066-0df2-11ee-962d-dac502259ad0.jpg

相對(duì)于SOTA的循環(huán)模型,TAU的性能增益是較大的,在三個(gè)度量指標(biāo)下,TAU的表現(xiàn)都超越了其他方法:

2d8d0ed8-0df2-11ee-962d-dac502259ad0.jpg

TaxiBJ

在真實(shí)復(fù)雜環(huán)境的交通流量數(shù)據(jù)集上,TAU具有良好的表現(xiàn):

2d9b603c-0df2-11ee-962d-dac502259ad0.png

不同數(shù)據(jù)的泛化

為了檢驗(yàn)?zāi)P偷姆夯芰Γ覀兿仍贙ITTI原始數(shù)據(jù)上進(jìn)行訓(xùn)練,接著使用Caltech dataset進(jìn)行評(píng)估,評(píng)估時(shí)輸入前十幀預(yù)測(cè)下一幀。

2daaf4f2-0df2-11ee-962d-dac502259ad0.png

靈活長(zhǎng)度的預(yù)測(cè)

我們的模型可以通過(guò)模仿RNN,將預(yù)測(cè)的幀作為輸入并遞歸產(chǎn)生預(yù)測(cè)來(lái)處理靈活長(zhǎng)度的預(yù)測(cè)。對(duì)于KTH數(shù)據(jù)集,人體運(yùn)動(dòng)預(yù)測(cè)任務(wù)的難點(diǎn)不僅在于預(yù)測(cè)幀的靈活長(zhǎng)度,還在于涉及人類(lèi)意識(shí)隨機(jī)性的復(fù)雜動(dòng)力學(xué),這增加了任務(wù)的困難程度。TAU可以從給定的10幀中預(yù)測(cè)接下來(lái)的20或40幀,也有出色的表現(xiàn)。

2dba6c16-0df2-11ee-962d-dac502259ad0.jpg

運(yùn)行效率

此外,我們的模型不僅可以提高視頻生成質(zhì)量,還可以提高計(jì)算效率和訓(xùn)練速度。如下圖所示,收斂速度極快,50輪訓(xùn)練即可達(dá)到MSE 35.0的水準(zhǔn)。在相同實(shí)驗(yàn)環(huán)境下,TAU模型在基準(zhǔn)數(shù)據(jù)集上每個(gè)周期只需要2.5分鐘,而此前的SOTA方法需要7到30分鐘不等。

2dd42110-0df2-11ee-962d-dac502259ad0.jpg

總結(jié)

本文提出了一個(gè)通用的時(shí)空預(yù)測(cè)學(xué)習(xí)框架,使用基于靜態(tài)和動(dòng)態(tài)結(jié)合的時(shí)間注意力模塊替代循環(huán)單元,還引入了差分散度正則化方法來(lái)解決僅考慮幀內(nèi)誤差的MSE損失的問(wèn)題,為高效的時(shí)空預(yù)測(cè)學(xué)習(xí)提供了新的范式。
責(zé)任編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4814

    瀏覽量

    103616
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    7256

    瀏覽量

    91868
  • 框架
    +關(guān)注

    關(guān)注

    0

    文章

    404

    瀏覽量

    17894
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    深度學(xué)習(xí)發(fā)展的5個(gè)主力框架

    在這篇文章中,我想向大家介紹推動(dòng)深度學(xué)習(xí)發(fā)展的5個(gè)主力框架。這些框架使數(shù)據(jù)科學(xué)家和工程師更容易為復(fù)雜問(wèn)題構(gòu)建深度學(xué)習(xí)解決方案,并執(zhí)行更復(fù)雜的
    發(fā)表于 05-04 10:30 ?4219次閱讀
    深度<b class='flag-5'>學(xué)習(xí)</b>發(fā)展的5<b class='flag-5'>個(gè)</b>主力<b class='flag-5'>框架</b>

    PLASTER:個(gè)與深度學(xué)習(xí)性能有關(guān)的框架

    PLASTER 是個(gè)與深度學(xué)習(xí)有關(guān)的框架,為致力于開(kāi)發(fā)和部署基于 AI 的服務(wù)的人士提供了全方位指導(dǎo)。本文介紹了每個(gè)框架元素的測(cè)量方式,以
    的頭像 發(fā)表于 06-22 15:07 ?3881次閱讀

    谷歌發(fā)布機(jī)器學(xué)習(xí)框架個(gè)名叫NSL的神經(jīng)結(jié)構(gòu)學(xué)習(xí)框架

    神經(jīng)結(jié)構(gòu)學(xué)習(xí)框架(NSL)的作用很大,它可以制作計(jì)算機(jī)視覺(jué)模型、執(zhí)行自然語(yǔ)言處理(NLP)、從醫(yī)療記錄或知識(shí)圖等圖形數(shù)據(jù)集中運(yùn)行預(yù)測(cè),還可以與 TensorFlow 機(jī)器學(xué)習(xí)平臺(tái)配合使
    的頭像 發(fā)表于 09-20 14:30 ?3678次閱讀

    個(gè)跳出人類(lèi)思維框架的人工智能抗生素預(yù)測(cè)平臺(tái)

    他們開(kāi)發(fā)了個(gè)跳出人類(lèi)思維框架的人工智能抗生素預(yù)測(cè)平臺(tái),這個(gè)平臺(tái)不需要知道藥物的作用機(jī)制,甚至不需要科學(xué)家標(biāo)注化學(xué)基團(tuán),它能
    的頭像 發(fā)表于 03-10 11:51 ?2192次閱讀

    個(gè)全新的深度學(xué)習(xí)框架——計(jì)圖

    清華大學(xué)計(jì)算機(jī)系胡事民教授研究團(tuán)隊(duì)提出了個(gè)全新的深度學(xué)習(xí)框架——計(jì)圖(Jittor)。Jittor是
    的頭像 發(fā)表于 03-26 15:50 ?7149次閱讀

    種用于交通流預(yù)測(cè)的深度學(xué)習(xí)框架

    交通流預(yù)測(cè)作為智能交通系統(tǒng)的個(gè)關(guān)鍵問(wèn)題,是國(guó)內(nèi)外交通領(lǐng)域的硏究熱點(diǎn)。交通流預(yù)測(cè)的主要挑戰(zhàn)在于交通流數(shù)據(jù)本身具有復(fù)雜的時(shí)空關(guān)聯(lián),且易受各種社
    發(fā)表于 04-14 15:54 ?3次下載
    <b class='flag-5'>一</b>種用于交通流<b class='flag-5'>預(yù)測(cè)</b>的深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>框架</b>

    基于時(shí)空特性的ST-LSTM網(wǎng)絡(luò)位置預(yù)測(cè)模型

    針對(duì)現(xiàn)有位置預(yù)測(cè)研究多數(shù)忽略時(shí)間和空間之間關(guān)聯(lián)性的問(wèn)題,提岀種基于時(shí)空特性的長(zhǎng)短期記憶模型( ST-LSTM)。基于LSTM網(wǎng)絡(luò)添加單獨(dú)處理用戶(hù)移動(dòng)行為時(shí)空信息的
    發(fā)表于 06-11 11:28 ?13次下載

    基于預(yù)測(cè)分析的時(shí)空眾包在線任務(wù)分配算法

    基于預(yù)測(cè)分析的時(shí)空眾包在線任務(wù)分配算法
    發(fā)表于 06-27 16:12 ?6次下載

    個(gè)基于參數(shù)更新的遷移學(xué)習(xí)的統(tǒng)框架

    它提出個(gè)基于參數(shù)更新的遷移學(xué)習(xí)的統(tǒng)框架,建立多種參數(shù)優(yōu)化方法之間的聯(lián)系,從而方便理解不同方法背后的關(guān)鍵設(shè)計(jì),進(jìn)而設(shè)計(jì)出只更新更少參數(shù)同時(shí)
    的頭像 發(fā)表于 09-26 10:29 ?1680次閱讀

    時(shí)空圖神經(jīng)網(wǎng)絡(luò)預(yù)測(cè)學(xué)習(xí)應(yīng)用解析

    在第四節(jié)中,我們介紹了STGNN的基本神經(jīng)架構(gòu),增強(qiáng)了對(duì)STGNN中時(shí)空學(xué)習(xí)泛化范式的理解。然而,近年來(lái)出現(xiàn)了許多前沿方法來(lái)改進(jìn)時(shí)空依賴(lài)關(guān)系的學(xué)習(xí)
    發(fā)表于 05-11 15:00 ?3933次閱讀
    <b class='flag-5'>時(shí)空</b>圖神經(jīng)網(wǎng)絡(luò)<b class='flag-5'>預(yù)測(cè)學(xué)習(xí)</b>應(yīng)用解析

    通用時(shí)空預(yù)測(cè)學(xué)習(xí)框架實(shí)現(xiàn)高效視頻預(yù)測(cè)案例

    TAU模型將時(shí)空注意力分解為兩個(gè)部分:幀內(nèi)靜態(tài)注意力和幀間動(dòng)態(tài)注意力。幀內(nèi)靜態(tài)注意力使用小核心深度卷積和擴(kuò)張卷積來(lái)實(shí)現(xiàn)大感受野,從而捕捉幀內(nèi)的長(zhǎng)距離依賴(lài)關(guān)系。
    發(fā)表于 06-19 10:25 ?765次閱讀
    <b class='flag-5'>通用</b>的<b class='flag-5'>時(shí)空</b><b class='flag-5'>預(yù)測(cè)學(xué)習(xí)</b><b class='flag-5'>框架</b>實(shí)現(xiàn)高效視頻<b class='flag-5'>預(yù)測(cè)</b>案例

    深度學(xué)習(xí)框架是什么?深度學(xué)習(xí)框架有哪些?

    深度學(xué)習(xí)框架是什么?深度學(xué)習(xí)框架有哪些?? 深度學(xué)習(xí)框架
    的頭像 發(fā)表于 08-17 16:03 ?3474次閱讀

    深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理嗎

    深度學(xué)習(xí)框架區(qū)分訓(xùn)練還是推理嗎 深度學(xué)習(xí)框架個(gè)非常重要的技術(shù),它們能夠加速深度
    的頭像 發(fā)表于 08-17 16:03 ?1739次閱讀

    深度學(xué)習(xí)框架連接技術(shù)

    深度學(xué)習(xí)框架連接技術(shù) 深度學(xué)習(xí)框架個(gè)能夠幫助機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 08-17 16:11 ?1058次閱讀

    深度學(xué)習(xí)框架和深度學(xué)習(xí)算法教程

    深度學(xué)習(xí)框架和深度學(xué)習(xí)算法教程 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)領(lǐng)域中的
    的頭像 發(fā)表于 08-17 16:11 ?1470次閱讀