計(jì)算機(jī)視覺三大會(huì)議之一的ECCV 2018將于9月8號(hào)到14號(hào)在德國(guó)慕尼黑召開!本次會(huì)議共接收論文779篇,同時(shí)在會(huì)議上將舉行11場(chǎng)tutorials和43場(chǎng)各個(gè)領(lǐng)域的workshops。同時(shí)優(yōu)秀的論文還將在會(huì)議上進(jìn)行口頭報(bào)告,在四天的會(huì)議日程中將會(huì)有59個(gè)orals報(bào)告覆蓋了從視覺學(xué)習(xí)、圖形攝影、人類感知、立體三維以及識(shí)別等各個(gè)領(lǐng)域。我們先來(lái)一探究竟吧!
根據(jù)網(wǎng)站上公布的論文題目,可以看到今年的研究熱點(diǎn)依然圍繞學(xué)習(xí)、網(wǎng)絡(luò)等研究方式展開,但同時(shí),檢測(cè)、可視化和視覺方面的研究也占有重要的位置。接下來(lái)我們就提前來(lái)看看ECCV將為我們帶來(lái)哪些精彩的研究前沿吧!
Oral
今年ECCV的主論壇將12個(gè)不同主題的分論壇分別安排到了10-13號(hào)四天的會(huì)議時(shí)間中,主要包括了視覺學(xué)習(xí)、計(jì)算攝影學(xué)、人類分析和感知、三維重建、優(yōu)化與識(shí)別等領(lǐng)域。
在視覺學(xué)習(xí)方向,有來(lái)自Facebook的Yuxin Wu和Kaiming提出的Group Normalization來(lái)解決Batch Normalizaiton存在的問題,將不同的通道分組歸一化實(shí)現(xiàn)了優(yōu)異的表現(xiàn)。
還有來(lái)自愛丁堡大學(xué)和日本理化研究所的研究人員提出的深度匹配自編碼器,用于從非配對(duì)多模態(tài)數(shù)據(jù)中學(xué)習(xí)出共有的隱含空間。
同時(shí)來(lái)自約翰霍普金斯大學(xué)、斯坦福大學(xué)和谷歌聯(lián)合研究的漸進(jìn)式神經(jīng)架構(gòu)搜索,用于學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。通過(guò)基于序列模型的優(yōu)化策略實(shí)現(xiàn)了高于強(qiáng)化學(xué)習(xí)和進(jìn)化算法近五倍的效率和8倍的總體計(jì)算提升。并在CIFAR-10和ImageNet上取得了很高的精度。
值得一提的是,除了來(lái)自于霍普金斯的劉晨曦和谷歌的Zoph外,論文作者還包括李飛飛和李佳等。據(jù)報(bào)道這篇文章與Neural Architecture Search with Reinforcement Learning和Large Scale Evolution of Image Classifiers等技術(shù)一起支撐了谷歌AutoML的發(fā)展。
在計(jì)算攝影學(xué)方向,包括了從點(diǎn)光源、光場(chǎng)、可編程器件等研究熱點(diǎn)。
來(lái)自慕尼黑工大的研究人員利用相機(jī)卷簾快門的特性優(yōu)化了直接稀疏里程計(jì)的后端,實(shí)現(xiàn)了近實(shí)時(shí)的準(zhǔn)確VO方法。
來(lái)自海德堡大學(xué)的研究人員提出了一種基于style-aware content的損失函數(shù)并聯(lián)合自編碼器訓(xùn)練出了實(shí)時(shí)高分辨率的風(fēng)格遷移模型。使得生產(chǎn)的圖像包含了更多更自然的美感。
來(lái)自圣迭戈分校和Adobe的研究人員提出了一種利用單張手機(jī)照片獲取不同材料表面變化的雙邊反射率函數(shù),通過(guò)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了對(duì)于SVBRDF的估計(jì),為光度渲染帶來(lái)了新的可能。
在人類行為分析與感知包括了人體及各部分的姿態(tài)估計(jì)、人臉人手追蹤、行人識(shí)別、行為預(yù)測(cè)等方面。
來(lái)自布里斯托、卡塔尼亞和多倫多大學(xué)的研究人員們給出了一個(gè)用于研究人類行為習(xí)慣的第一人稱數(shù)據(jù)庫(kù)EPIC-KITCHENS,這一數(shù)據(jù)庫(kù)記錄了來(lái)自多個(gè)國(guó)家的參與者在廚房中的第一人稱視角,包含了1150萬(wàn)幀圖像和3.96萬(wàn)個(gè)動(dòng)作分割與45.34萬(wàn)個(gè)bbox。這一數(shù)據(jù)集將用于第一人稱的物體檢測(cè)、行為識(shí)別和行為預(yù)測(cè)中去。
同樣來(lái)自湖南大學(xué)和東京大學(xué)的研究人員提出了從第一人稱視角來(lái)預(yù)測(cè)凝視注意力的模型。
來(lái)自中山大學(xué)、商湯和視源的研究人員們提出了一種通過(guò)部分xx網(wǎng)絡(luò)實(shí)現(xiàn)了實(shí)例人體分析,通過(guò)將實(shí)例人體解析任務(wù)分解成語(yǔ)義分割和基于邊緣檢測(cè)將語(yǔ)義部件歸并到確定人物身上的兩個(gè)子任務(wù)來(lái)實(shí)現(xiàn)。
來(lái)自伯克利的研究人員提出了一種聯(lián)合視頻中圖像和聲音信息的網(wǎng)絡(luò)用于融合多傳感器的表達(dá),利用自監(jiān)督的方式訓(xùn)練出了一種可以預(yù)測(cè)視頻幀和音頻是否對(duì)齊的神經(jīng)網(wǎng)絡(luò),并可用于視頻聲源定位、音-視識(shí)別和音軌分離等任務(wù)。
薩里大學(xué)和adobe的研究人員通過(guò)訓(xùn)練對(duì)稱的卷積自編碼器來(lái)學(xué)習(xí)出骨架關(guān)節(jié)位置的編碼和身體的體積表示。能夠準(zhǔn)確恢復(fù)出關(guān)節(jié)位置的3D估計(jì)。
來(lái)自洛桑理工的研究人員也提出了一種非監(jiān)督的3D人體姿態(tài)估計(jì)模型,通過(guò)自編碼器可以從單一視角的圖像預(yù)測(cè)另一個(gè)視角。由于它編碼了3D幾何表示,研究人員還將它用于半監(jiān)督學(xué)習(xí)映射人體姿態(tài)。
在立體視覺三維重建方面,主要研究集中在幾何、立體視覺和深度推理等方面。
來(lái)自香港科技大學(xué)的研究人員提出了利用非結(jié)構(gòu)化的圖像作為輸入,端到端地推算出參考圖像的深圖信息。其提出的NVSNet將相機(jī)參數(shù)編碼為可微單應(yīng)性變換來(lái)得到視椎體損失體積,建立起了2D特征抽取和3D損失正則化之間的關(guān)系。最終通過(guò)3D卷積來(lái)對(duì)初始點(diǎn)云規(guī)則化和回歸來(lái)得到最終的輸出結(jié)果。
為了解決點(diǎn)云預(yù)測(cè)中點(diǎn)的位置與物體全局幾何形狀不匹配的問題的問題,港中文提出了幾何對(duì)抗損失優(yōu)化單視角下點(diǎn)云的全局三維重建。利用多視角幾何損失和條件對(duì)抗損失來(lái)對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練。
多視角幾何損失使得網(wǎng)絡(luò)學(xué)習(xí)重建多視角下有效的3D模型,而條件對(duì)抗損失則保證重建的3D物體符合普通圖片中的語(yǔ)義信息。
除此之外還包括了普林斯頓的共面匹配方法、普林斯頓與谷歌共同完成的主動(dòng)立體視覺網(wǎng)絡(luò)以及慕尼黑工大提出的基于深度預(yù)測(cè)的單目稀疏直接里程計(jì)等研究工作。
在匹配與識(shí)別方面涵蓋了目標(biāo)檢測(cè)、定位、紋理和位置精煉等方面的研究。
來(lái)自密歇根大學(xué)的研究人員提出了一種基于關(guān)鍵點(diǎn)對(duì)兒的目標(biāo)檢測(cè)方法CornerNet。它將目標(biāo)檢測(cè)任務(wù)轉(zhuǎn)換為利用單個(gè)神經(jīng)網(wǎng)絡(luò)對(duì)bbox左上和右下角的檢測(cè)。這種方法消除了對(duì)于錨框的依賴。并提出了一種稱為角點(diǎn)pooling的層來(lái)提高對(duì)角點(diǎn)的定位能力。最終在COCO上達(dá)到了42.1%的mAP.
來(lái)自清華北大、曠視和頭條的研究人員提出了一種目標(biāo)檢測(cè)中描述框定位置信度的方法IoU-Net,并利用定位置信度來(lái)改善目標(biāo)檢測(cè)中非極大值抑制,以產(chǎn)生更精確的預(yù)測(cè)框。同時(shí)提出了基于優(yōu)化的框提煉方法。
來(lái)自以色列理工學(xué)院的研究人員提出了一種基于上下文損失的圖像遷移方法,適用于非對(duì)齊的數(shù)據(jù)。這種模型基于上下文和語(yǔ)義來(lái)定義損失。這一模型在卡通圖像模擬、語(yǔ)義風(fēng)格遷移和領(lǐng)域遷移中都表現(xiàn)除了很好的效果。
Tutorials
本屆ECCV的tutorials同樣是涉及了視覺領(lǐng)域各個(gè)方面的前沿內(nèi)容,從對(duì)抗學(xué)習(xí)到3D重建,從行人識(shí)別到目標(biāo)檢測(cè)。一定能找到一個(gè)你需要的教程來(lái)深入學(xué)習(xí)。其中有Kaiming,rbg和Gkioxari等大神帶來(lái)的視覺識(shí)別及其未來(lái)的系列教程。
還有神經(jīng)網(wǎng)絡(luò)訓(xùn)練中歸一化方法的理論與實(shí)踐、特征與學(xué)習(xí)的視覺定位。
還包括行人重識(shí)別的表達(dá)學(xué)習(xí)和基于步態(tài)&面部分析的識(shí)別方法。此外還包括快速三維感知重建和理解的tutorial。
更多內(nèi)容請(qǐng)參閱,某些教程目前已經(jīng)開放相關(guān)資料下載了:
https://eccv2018.org/program/workshops_tutorials/
Workshop
最后我們來(lái)概覽一番每次會(huì)議都必不可少的workshops。本屆ECCV包括了43個(gè)workshops,其中包含了11個(gè)各領(lǐng)域的挑戰(zhàn)賽。值得一提的是,很多來(lái)自中國(guó)的隊(duì)伍在很多挑戰(zhàn)賽中都取得了不錯(cuò)的成績(jī)。
今年的workshops 主要集中于識(shí)別、檢測(cè)、自動(dòng)機(jī)器(自動(dòng)駕駛、無(wú)人機(jī)、機(jī)器人等)、人類理解分析、三維重建理解、幾何/表示學(xué)習(xí)和早期視覺等領(lǐng)域。
-
編碼器
+關(guān)注
關(guān)注
45文章
3794瀏覽量
138002 -
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4814瀏覽量
103564 -
計(jì)算機(jī)視覺
+關(guān)注
關(guān)注
9文章
1708瀏覽量
46770
原文標(biāo)題:計(jì)算機(jī)視覺三大會(huì)議之——ECCV 2018 觀看指南(含大量劇透+傳送門)
文章出處:【微信號(hào):thejiangmen,微信公眾號(hào):將門創(chuàng)投】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
基于安芯一號(hào)SLH89F5162的真三維立體圖形顯示
雙目立體視覺原理大揭秘(二)
基于立體視覺的變形測(cè)量
雙目立體視覺的運(yùn)用
基于STM32的三維旋轉(zhuǎn)顯示平臺(tái)設(shè)計(jì)(立體成像)!!!
三維立體數(shù)字沙盤是是什么?
三維可視化的應(yīng)用和優(yōu)勢(shì)
三維立體視覺技術(shù)的應(yīng)用及其三維恢復(fù)方法介紹
基于雙目立體視覺的三維拼接和融合方法

三維圖形引擎綜述

評(píng)論