女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

詳解跨鏡追蹤(ReID)應(yīng)用分析與技術(shù)展望

8g3K_AI_Thinker ? 來源:未知 ? 作者:胡薇 ? 2018-06-28 16:53 ? 次閱讀

跨鏡追蹤(Person Re-Identification,簡稱 ReID)技術(shù)是現(xiàn)在計算機視覺研究的熱門方向,主要解決跨攝像頭跨場景下行人的識別與檢索。該技術(shù)能夠根據(jù)行人的穿著、體態(tài)、發(fā)型等信息認知行人,與人臉識別結(jié)合能夠適用于更多新的應(yīng)用場景,將人工智能的認知水平提高到一個新階段。

本期大本營公開課,我們邀請到了云從科技資深算法研究員袁余鋒老師,他將通過以下四個方面來講解本次課題:

1、ReID的定義及技術(shù)難點;

2、常用數(shù)據(jù)集與評價指標簡介;

3、多粒度網(wǎng)絡(luò)(MGN)的結(jié)構(gòu)設(shè)計與技術(shù)實現(xiàn);

4、ReID在行人跟蹤中的應(yīng)用分析與技術(shù)展望

以下是公開課文字版整理內(nèi)容

ReID 是行人智能認知的其中一個研究方向,行人智能認知是人臉識別之后比較重要的一個研究方向,特別是計算機視覺行業(yè)里面,我們首先簡單介紹 ReID 里比較熱門的幾項內(nèi)容:

1、行人檢測。任務(wù)是在給定圖片中檢測出行人位置的矩形框,這個跟之前的人臉檢測、汽車檢測比較類似,是較為基礎(chǔ)的技術(shù),也是很多行人技術(shù)的一個前置技術(shù)。

2、行人分割以及背景替換。行人分割比行人檢測更精準,預(yù)估每個行人在圖片里的像素概率,把這個像素分割出來是人或是背景,這時用到很多 P 圖的場景,比如背景替換。舉一個例子,一些網(wǎng)紅在做直播時,可以把直播的背景替換成外景,讓體驗得到提升。

3、骨架關(guān)鍵點檢測及姿態(tài)識別。一般識別出人體的幾個關(guān)鍵點,比如頭部、肩部、手掌、腳掌,用到行人姿態(tài)識別的任務(wù)中,這些技術(shù)可以應(yīng)用在互動娛樂的場景中,類似于 Kinnect 人機互動方面,關(guān)鍵點檢測技術(shù)是非常有價值的。

4、行人跟蹤“ MOT ”的技術(shù)。主要是研究人在單個攝像頭里行進的軌跡,每個人后面拖了一根線,這根線表示這個人在攝像頭里行進的軌跡,和 ReID 技術(shù)結(jié)合在一起可以形成跨鏡頭的細粒度的軌跡跟蹤。

5、動作識別。動作識別是基于視頻的內(nèi)容理解做的,技術(shù)更加復(fù)雜一點,但是它與人類的認知更加接近,應(yīng)用場景會更多,這個技術(shù)目前并不成熟。動作識別可以有非常多的應(yīng)用,比如闖紅燈,還有公共場合突發(fā)事件的智能認知,像偷竊、聚眾斗毆,攝像頭識別出這樣的行為之后可以采取智能措施,比如自動報警,這有非常大的社會價值。

6、行人屬性結(jié)構(gòu)化。把行人的屬性提煉出來,比如他衣服的顏色、褲子的類型、背包的顏色。

7、跨境追蹤及行人再識別 ReID 技術(shù)。

一、ReID 定義及技術(shù)難點

▌(一)ReID 定義

我們把 ReID 叫“跨鏡追蹤技術(shù)”,它是現(xiàn)在計算機視覺研究的熱門方向,主要解決跨攝像頭跨場景下行人的識別與檢索。該技術(shù)可以作為人臉識別技術(shù)的重要補充,可以對無法獲取清晰拍攝人臉的行人進行跨攝像頭連續(xù)跟蹤,增強數(shù)據(jù)的時空連續(xù)性。

給大家舉個例子,右圖由四張圖片構(gòu)成,黃色這個人是之前新聞報道中的偷小孩事件的人,這個人會出現(xiàn)在多個攝像頭里,現(xiàn)在警察刑偵時會人工去檢索視頻里這個人出現(xiàn)的視頻段。這就是 ReID 可以應(yīng)用的場景,ReID 技術(shù)可以根據(jù)行人的穿著、體貌,在各個攝像頭中去檢索,把這個人在各個不同攝像頭出現(xiàn)的視頻段關(guān)聯(lián)起來,然后形成軌跡,這個軌跡對警察刑偵破案有一定幫助。這是一個應(yīng)用場景。

▌(二)ReID 技術(shù)難點

右邊是 ReID 的技術(shù)特點:首先,ReID 是屬于行人識別,是繼人臉識別后的一個重要研究方向。另外,研究的對象是人的整體特征,包括衣著、體形、發(fā)行、姿態(tài)等等。它的特點是跨攝像頭,跟人臉識別做補充。

二、常用數(shù)據(jù)集與評價指標簡介

很多人都說過深度學(xué)習(xí)其實也不難,為什么?只要有很多數(shù)據(jù),基本深度學(xué)習(xí)的數(shù)據(jù)都能解決,這是一個類似于通用的解法。那我們就要反問,ReID 是一個深度認知問題,是不是用這種邏輯去解決就應(yīng)該能夠迎刃而解?準備了很多數(shù)據(jù),ReID 是不是就可以解決?根據(jù)我個人的經(jīng)驗回答一下:“在 ReID 中,也行!但僅僅是理論上的,實際操作上非常不行!”

為什么?第一,ReID 有很多技術(shù)難點。比如 ReID 在實際應(yīng)用場景下的數(shù)據(jù)非常復(fù)雜,會受到各種因素的影響,這些因素是客觀存在的,ReID 必須要嘗試去解決。

第一組圖,無正臉照。最大的問題是這個人完全看不到正臉,特別是左圖是個背面照,右圖戴個帽子,沒有正面照。

第二組圖,姿態(tài)。綠色衣服男子,左邊這張圖在走路,右圖在騎車,而且右圖還戴了口罩。

第三組圖,配飾。左圖是正面照,但右圖背面照出現(xiàn)了非常大的背包,左圖只能看到兩個肩帶,根本不知道背包長什么樣子,但右圖的背包非常大,這張圖片有很多背包的信息。

第四組圖,遮擋。左圖這個人打了遮陽傘,把肩部以上的地方全部擋住了,這是很大的問題。

圖片上只列舉了四種情況,還有更多情況,比如:

1、相機拍攝角度差異大;

2、監(jiān)控圖片模糊不清;

3、室內(nèi)室外環(huán)境變化;

4、行人更換服裝配飾,如之前穿了一件小外套,過一會兒把外套脫掉了;

5、季節(jié)性穿衣風(fēng)格,冬季、夏季穿衣風(fēng)格差別非常大,但從行人認知來講他很可能是同一個人;

6、白天晚上的光線差異等。

從剛才列舉的情況應(yīng)該能夠理解 ReID 的技術(shù)難點,要解決實際問題是非常復(fù)雜的。

ReID 常用的數(shù)據(jù)情況如何?右圖列舉了 ReID 學(xué)術(shù)界最常用的三個公開數(shù)據(jù)集:

第一列,Market1501。用得比較多,拍攝地點在清華大學(xué),圖片數(shù)量有 32000 張左右,行人數(shù)量是 1500 個,相當于每個人差不多有 20 張照片,它是用 6 個攝像頭拍的。

第二列,DukeMTMC-reID,拍攝地點是在 Duke 大學(xué),有 36000 張照片,1800 個人,是 8 個攝像頭拍的。

第三列,CUHK03,香港中文大學(xué),13000 張照片,1467 個 ID,10 個攝像頭拍的。

看了這幾個數(shù)據(jù)集之后,應(yīng)該能有一個直觀的感受,就是在 ReID 研究里,現(xiàn)在圖片的數(shù)量集大概在幾萬張左右,而 ID 數(shù)量基本小于 2000,攝像頭大概在 10 個以下,而且這些照片大部分都來自于學(xué)校,所以他們的身份大部分是學(xué)生。

這可以跟現(xiàn)在人臉數(shù)據(jù)集比較一下,人臉數(shù)據(jù)集動輒都是百萬張或者千萬張照片,一個人臉的 ID 多的數(shù)據(jù)集可以上百萬,而且身份非常多樣。這個其實就是 ReID 面對前面那么復(fù)雜的問題,但是數(shù)據(jù)又那么少的一個比較現(xiàn)實的情況。

這里放三個數(shù)據(jù)集的照片在這里,上面是 Market1501 的數(shù)據(jù)集,比如紫色這個人有一些照片檢測得并不好,像第二張照片的人只占圖片的五分之三左右,并不是一個完整的人。還有些照片只檢測到了局部,這是現(xiàn)在數(shù)據(jù)集比較現(xiàn)實的情況。

總結(jié)一下 ReID 數(shù)據(jù)采集的特點:

1、必須跨攝像頭采集,給數(shù)據(jù)采集的研發(fā)團隊和公司提出了比較高的要求;

2、公開數(shù)據(jù)集的數(shù)據(jù)規(guī)模非常小;

3、影響因素復(fù)雜多樣;

4、數(shù)據(jù)一般都是視頻的連續(xù)截圖;

5、同一個人最好有多張全身照片;

6、互聯(lián)網(wǎng)提供的照片基本無法用在 ReID;

7、監(jiān)控大規(guī)模搜集涉及到數(shù)據(jù),涉及到用戶的隱私問題。

這些都是 ReID 數(shù)據(jù)采集的特點,可以歸結(jié)為一句話:“數(shù)據(jù)獲取難度大,會對算法提出比較大的挑戰(zhàn)。”問題很復(fù)雜,數(shù)據(jù)很難獲取,那怎么辦?現(xiàn)在業(yè)內(nèi)盡量在算法層面做更多的工作,提高 ReID 的效果。

這里講一下評價指標,在 ReID 用得比較多的評價指標有兩個:

第一個是 Rank1

第二個是 mAP

ReID 終歸還是排序問題,Rank 是排序命中率核心指標。Rank1 是首位命中率,就是排在第一位的圖有沒有命中他本人,Rank5 是 1-5 張圖有沒有至少一張命中他本人。更能全面評價ReID 技術(shù)的指標是 mAP 平均精度均值。

這里我放了三個圖片的檢索結(jié)果,是 MGN 多粒度網(wǎng)絡(luò)產(chǎn)生的結(jié)果,第一組圖 10 張,從左到右是第 1 張到第 10 張,全是他本人圖片。第二組圖在第 9 張圖片模型判斷錯了,不是同一個人。第三組圖,第 1 張到第 6 張圖是對的,后面 4 張圖檢索錯了,不是我們模型檢索錯了,是這個人在底庫中總共就 6 張圖,把前 6 張檢索出來了,其實第三個人是百分之百檢索對的。

詳細介紹評價指標 mAP。因為 Rank1 只要第一張命中就可以了,有一系列偶然因素在里面,模型訓(xùn)練或者測試時有一些波動。但是 mAP 衡量 ReID 更加全面,為什么?因為它要求被檢索人在底庫中所有的圖片都排在最前面,這時候 mAP 的指標才會高。

給大家舉個例子,這里放了兩組圖,圖片 1 和圖片 2 是檢索圖,第一組圖在底庫中有 5 張圖,下面有 5 個數(shù)字,我們假設(shè)它的檢索位置,排在第 1 位、第 3 位、第 4 位、第 8 位,第 20 位,第二張圖第 1 位、第 3 位、第 5 位。

它的 mAP 是怎么算的?對于第一張圖平均精度有一個公式在下面,就是 0.63 這個位置。第一張是 1 除以 1,第二張是除以排序?qū)嶋H位置,2 除以 3,第三個位置是 3 除以 4,第四個是 4 除以 8,第五張圖是 5 除以 20,然后把它們的值求平均,再總除以總的圖片量,最后得出的 mAP 值大概是 0.63。

同樣的算法,算出圖片 2 的精度是 0.756。最后把所有圖片的 mAP 求一個平均值,最后得到的 mAP 大概是 69.45。從這個公式可以看到,這個檢索圖在底庫中所有的圖片都會去計算 mAP,所以最好的情況是這個人在底庫中所有的圖片都排在前面,沒有任何其他人的照片插到他前面來,就相當于同一個人所有的照片距離都是最近的,這種情況最好,這種要求是非常高的,所以 mAP 是比較能夠綜合體現(xiàn)這個模型真實水平的指標。

再來看一下 ReID 實現(xiàn)思路與常見方案。ReID 從完整的過程分三個步驟:

第一步,從攝像頭的監(jiān)控視頻獲得原始圖片;

第二步,基于這些原始圖片把行人的位置檢測出來;

第三步,基于檢測出來的行人圖片,用 ReID 技術(shù)計算圖片的距離,但是我們現(xiàn)在做研究是基于常用數(shù)據(jù)集,把前面圖像的采集以及行人檢測的兩個工作做過了,我們 ReID 的課題主要研究第三個階段。

ReID 研究某種意義上來講,如果抽象得比較高,也是比較清晰的。比如大家看下圖,假設(shè)黃色衣服的人是檢索圖,后面密密麻麻很多小圖組成的相當于底庫,從檢索圖和底庫都抽出表征圖像的特征,特征一般都抽象為一個向量,比如 256 維或者 2048 維,這個 Match 會用距離去計算檢索圖跟庫里所有人的距離,然后對距離做排序,距離小的排在前面,距離大的排在后面,我們理解距離小的這些人是同一個人的相似度更高一點,這是一個比較抽象的思維。

剛才講到核心是把圖像抽象成特征的過程,我再稍微詳細的畫一個流程,左圖的這些圖片會經(jīng)過 CNN 網(wǎng)絡(luò),CNN 是卷積神經(jīng)網(wǎng)絡(luò),不同的研究機構(gòu)會設(shè)計自己不同的網(wǎng)絡(luò)結(jié)構(gòu),這些圖片抽象成特征 Feature,一般是向量表示。

然后分兩個階段,在訓(xùn)練時,我們一般會設(shè)計一定的損失函數(shù),在訓(xùn)練階段盡量讓損失函數(shù)最小化,最小化過程反向把特征訓(xùn)練得更加有意義,在評估階段時不會考慮損失函數(shù),直接把特征抽象出來,用這個特征代表這張圖片,放到前面那張 PPT 里講的,去計算它們的距離。

因為現(xiàn)在 ReID 的很多研究課題都是基于 Resnet50 結(jié)構(gòu)去修改的。Resnet 一般會分為五層,圖像輸入是 (224,224,3),3 是 3 個通道,每層輸出的特征圖譜長寬都會比上一層縮小一半,比如從 224 到 112,112 到 56,56 到 28,最后第五層輸出的特征圖譜是 (7,7,2048)。

最后進行池化,變成 2048 向量,這個池化比較形象的解釋,就是每個特征圖譜里取一個最大值或者平均值。最后基于這個特征做分類,識別它是行人、車輛、汽車。我們網(wǎng)絡(luò)改造主要是在特征位置(7,7,2048)這個地方,像我們的網(wǎng)絡(luò)是 384×128,所以我們輸出的特征圖譜應(yīng)該是 (12,4,2048)的過程。

下面,我講一下 ReID 里面常用的算法實現(xiàn):

▌第一種,表征學(xué)習(xí)。

給大家介紹一下技術(shù)方案,圖片上有兩行,上面一行、下面一行,這兩行網(wǎng)絡(luò)結(jié)構(gòu)基本是一樣的,但是兩行中間這個地方會把兩行的輸出特征進行比較,因為這個網(wǎng)絡(luò)是用了 4096 的向量,兩個特征有一個對比 Loss,這個網(wǎng)絡(luò)用了兩種 Loss,第一個 Loss 是 4096 做分類問題,然后兩個 4096 之間會有一個對比 Loss。

這個分類的問題是怎么定義的?在我們數(shù)據(jù)集像 mark1501 上有 751 個人的照片組成,這個分類相當于一張圖片輸入這個網(wǎng)絡(luò)之后,判斷這個人是其中某一個人的概率,要把這個圖片分類成 751 個 ID 中其中一個的概率,這個地方的 Loss 一般都用 SoftmaxLoss。機器視覺的同學(xué)應(yīng)該非常熟悉這個,這是非常基本的一個 Loss,對非機器視覺的同學(xué),這個可能要你們自己去理解,它可以作為分類的實現(xiàn)。

這個方案是通過設(shè)計分類損失與對比損失,來實現(xiàn)對網(wǎng)絡(luò)的監(jiān)督學(xué)習(xí)。它測試時取的是 4096 這個向量來表征圖片本人。這個文章應(yīng)該是發(fā)在 2016 年,作者當時報告的效果在當時的時間點是有一定競爭力的,它的 Rank1 到了 79.51%,mAP 是 59.87%

▌第二種,度量學(xué)習(xí)方案。

基于TripletLoss 三元損失的 ReID 方案。TripletLoss 是計算機視覺里另外一個常用的 Loss。

它的設(shè)計思路是左圖下面有三個點,目的是從數(shù)據(jù)里面選擇三個圖片,這三個圖片由兩個人構(gòu)成,其中兩張圖片是同一個人,另外一張圖片不是同一個人,當這個網(wǎng)絡(luò)在沒有訓(xùn)練的時候,我們假設(shè)這同一個人的兩張照片距離要大于這個人跟不是同一個人兩張圖片的距離。

它強制模型訓(xùn)練,使得同一個人兩張圖片的距離小于第三張圖片,就是剛才那張圖片上箭頭表示的過程。它真正的目的是讓同類的距離更近,不同類的距離更遠。這是TripletLoss的定義,大家可以去網(wǎng)上搜一下更詳細的解釋。

在 ReID 方案里面我給大家介紹一個 Batchhard的策略,因為 TripletLoss 在設(shè)計時怎么選這三張圖是有很多文章在實現(xiàn)不同算法,我們的文章里用的是 Batchhard算法,就是我們從數(shù)據(jù)集隨機抽取 P 個人,每個人 K 張圖片形成一個 Batch,每個人的 K 張圖片之間形成一個 K×(K-1)個 ap 對,再在剩下其他人里取一個與該 ap 距離最近的 negtive,組成 apn 組,然后我們這個模型使得 apn 組成的 Loss 盡量小。

這個 Loss 怎么定義?右上角有一個公式,就是 ap 距離減 an距離,m 是一個gap,這個值盡量小,使得同類之間盡量靠在一起,異類盡量拉開。右圖是 TripletLoss 的實驗方案,當時這個作者報告了一個成果,Rank1 到了 84.92%,mAP 到了 69%,這個成果在他發(fā)文章的那個階段是很有競爭力的結(jié)果。

▌第三種,局部特征學(xué)習(xí)。

1、基于局部區(qū)域調(diào)整的 ReID 解決方案。多粒度網(wǎng)絡(luò)也是解決局部特征和全局特征的方案。這是作者發(fā)的一篇文章,他解釋了三種方案。

左圖第一種方案是把整張圖輸進網(wǎng)絡(luò),取整張圖的特征;

第二種方案是把圖從上到下均分為三等,三分之一均分,每個部分輸入到網(wǎng)絡(luò),去提出一個特征,把這三個特征又串連起來;

第三種方案是文章的核心,因為他覺得第二種均分可能出現(xiàn)問題,就是有些圖片檢測時,因為檢測技術(shù)不到位,檢測的可能不是完整人,可能是人的一部分,或者是人在圖里面只占一部分,這種情況如果三分之一均分出來的東西互相比較時就會有問題。

所以他設(shè)計一個模型,使得這個模型動態(tài)調(diào)整不同區(qū)域在圖片中的占比,把調(diào)整的信息跟原來三分的信息結(jié)合在一起進行預(yù)估。作者當時報告的成果是 Rank1為80% 左右,mAP為57%,用現(xiàn)在的眼光來講,這個成果不是那么顯著,但他把圖片切分成細粒度的思路給后面的研究者提供了啟發(fā),我們的成果也受助于他們的經(jīng)驗。

2、基于姿態(tài)估計局部特征調(diào)整。局部切割是基于圖片的,但對里面的語義不了解,是基于姿態(tài)估計局部位置的調(diào)整怎么做?先通過人體關(guān)鍵點的模型,把這個圖片里面人的關(guān)節(jié)位置取出來,然后按照人類對人體結(jié)構(gòu)的理解,把頭跟頭比較,手跟手比較,按照人類的語義分割做一些調(diào)整,這相對于剛才的硬分割更加容易理解。基于這個調(diào)整再去做局部特征的優(yōu)化,這個文章是發(fā)表在 2017 年,當時作者報告的成果 Rank1為84.14%,mAP為63.41%。

3、PCB。發(fā)表在 2018 年 1 月份左右的文章,我們簡稱為 PCB,它的指標效果在現(xiàn)在來看還是可以的,我們多粒度網(wǎng)絡(luò)有一部分也是受它的啟發(fā)。下圖左邊這個特征圖較為復(fù)雜,可以看一下右邊這張圖,右圖上部分藍色衣服女孩這張圖片輸入網(wǎng)絡(luò)后有一個特征圖譜,大概個矩形體組成在這個地方,這是特征圖譜。這個圖譜位置的尺寸應(yīng)該是 24×8×2048,就是前面講的那個特征圖譜的位置。

它的優(yōu)化主要是在這個位置,它干了個什么事?它沿著縱向?qū)?4 平均分成 6 份,縱向就是 4,而橫向是 8,單個特征圖譜變?yōu)?×8×2048,但它從上到下有 6 個局部特征圖譜。6個特征圖譜變?yōu)?個向量后做分類,它是同時針對每個局部獨立做一個分類,這是這篇文章的精髓。這個方式看起來非常簡單,但這個方法跑起來非常有效。作者報告的成果在 2018 年 1 月份時 Rank1 達到了 93.8%,mAP 達到了 81.6%,這在當時是非常好的指標了。

三、多粒度網(wǎng)絡(luò)(MGN)的結(jié)構(gòu)設(shè)計與技術(shù)實現(xiàn)

剛才講了 ReID 研究方面的 5 個方案。接下來要講的是多粒度網(wǎng)絡(luò)的結(jié)構(gòu)設(shè)計與實現(xiàn)。有人問 MGN 的名字叫什么,英文名字比較長,中文名字是對英文的一個翻譯,就是“學(xué)習(xí)多粒度顯著特征用于跨境追蹤技術(shù)(行人在識別)”,這個文章是發(fā)表于 4 月初。

▌(一)多粒度網(wǎng)絡(luò)(MGN)設(shè)計思路。

設(shè)計思想是這樣子的,一開始是全局特征,把整張圖片輸入,我們提取它的特征,用這種特征比較 Loss 或比較圖片距離。但這時我們發(fā)現(xiàn)有一些不顯著的細節(jié),還有出現(xiàn)頻率比較低的特征會被忽略。比如衣服上有個 LOGO,但不是所有衣服上有 LOGO,只有部分人衣服上有 LOGO。全局特征會做特征均勻化,LOGO 的細節(jié)被忽略掉了。

我們基于局部特征也去嘗試過,用關(guān)鍵點、人體姿態(tài)等。但這種有一些先驗知識在里面,比如遮擋、姿態(tài)大范圍的變化對這種方案有一些影響,效果并不是那么強。

后來我們想到全局特征跟多粒度局部特征結(jié)合在一起搞,思路比較簡單,全局特征負責(zé)整體的宏觀上大家共有的特征的提取,然后我們把圖像切分成不同塊,每一塊不同粒度,它去負責(zé)不同層次或者不同級別特征的提取。

相信把全局和局部的特征結(jié)合在一起,能夠有豐富的信息和細節(jié)去表征輸入圖片的完整情況。在觀察中發(fā)現(xiàn),確實是隨著分割粒度的增加,模型能夠?qū)W到更詳細的細節(jié)信息,最終產(chǎn)生 MGN 的網(wǎng)絡(luò)結(jié)構(gòu)。

下面演示一下多粒度特征,演示兩張圖,左邊第一列有 3 張圖,中間這列把這3張圖用二分之一上下均分,你可以看到同一個人有上半身、下半身,第三列是把人從上到下分成三塊——頭部、腹胸、腿部,它有 3 個粒度,每個粒度做獨立的引導(dǎo),使得模型盡量對每個粒度學(xué)習(xí)更多信息。

右圖表示的是注意力的呈現(xiàn)效果,這不是基于我們模型產(chǎn)生的,是基于之前的算法看到的。左邊是整張圖在輸入時網(wǎng)絡(luò)在關(guān)注什么,整個人看著比較均勻,范圍比較廣一點。第三欄從上到下相當于把它切成 3 塊,每一塊看的時候它的關(guān)注點會更加集中一點,亮度分布不會像左邊那么均勻,更關(guān)注局部的亮點,我們可以理解為網(wǎng)絡(luò)在關(guān)注不同粒度的信息。

▌(二)多粒度網(wǎng)絡(luò)(MGN)——網(wǎng)絡(luò)結(jié)構(gòu)

這是 MGN 的網(wǎng)絡(luò)架構(gòu)完整的圖,這個網(wǎng)絡(luò)圖比較復(fù)雜,第一個,網(wǎng)絡(luò)從結(jié)構(gòu)上比較直觀,從效果來講是比較有效的,如果想復(fù)現(xiàn)我們的方案還是比較容易的。如果你是做深度學(xué)習(xí)其他方向的,我們這個方案也有一定的普適性,特別是關(guān)注細粒度特征時,因為我們不是只針對 ReID 做的。我們設(shè)計的結(jié)構(gòu)是有一定普適性,我把它理解為“易遷移”,大家可以作為參考。

首先,輸入圖的尺寸是 384×128,我們用的是 Resnet50,如果在不做任何改變的情況下,它的特征圖譜輸出尺寸,從右下角表格可以看到,global 這個地方就相當于對 Resnet 50不做任何的改變,特征圖譜輸出是 12×4。

下面有一個 part-2 跟 part-3,這是在 Res4_1 的位置,本來是有一個stride等于 2 的下采樣的操作,我們把 2 改成1,沒有下采樣,這個地方的尺寸就不會縮小 2,所以 part-2 跟 part-3 比 global 大一倍的尺寸,它的尺寸是 24×8。為什么要這么操作?因為我們會強制分配 part-2 跟 part-3 去學(xué)習(xí)細粒度特征,如果把特征尺寸做得大一點,相當于信息更多一點,更利于網(wǎng)絡(luò)學(xué)到更細節(jié)的特征。

網(wǎng)絡(luò)結(jié)構(gòu)從左到右,先是兩個人的圖片輸入,這邊有 3 個模塊。3 個模塊的意思是表示 3 個分支共享網(wǎng)絡(luò),前三層這三個分支是共享的,到第四層時分成三個支路,第一個支路是 global 的分支,第二個是 part-2 的分支,第三個是 part-3 的分支。在 global 的地方有兩塊,右邊這個方塊比左邊的方塊大概縮小了一倍,因為做了個下采樣,下面兩個分支沒有做下采樣,所以第四層和第五層特征圖是一樣大小的。

接下來我們對 part-2 跟 part-3 做一個從上到下的縱向分割,part-2 在第五層特征圖譜分成兩塊,part-3 對特征圖譜從上到下分成三塊。在分割完成后,我們做一個 pooling,相當于求一個最值,我們用的是 Max-pooling,得到一個 2048 的向量,這個是長條形的、橫向的、黃色區(qū)域這個地方。

但是 part-2 跟 part-3 的操作跟 global 是不一樣的,part-2 有兩個 pooling,第一個是藍色的,兩個 part 合在一起做一個 global-pooling,我們強制 part-2 去學(xué)習(xí)細節(jié)的聯(lián)合信息,part-2 有兩個細的長條形,就是我們剛才引導(dǎo)它去學(xué)細節(jié)型的信息。淡藍色這個地方變成小方體一樣,是做降維,從 2048 維做成 256 維,這個主要方便特征計算,因為可以降維,更快更有效。我們在測試的時候會在淡藍色的地方,小方塊從上到下應(yīng)該是 8 個,我們把這 8 個 256 維的特征串連一個 2048 的特征,用這個特征替代前面輸入的圖片。

▌(三)多粒度網(wǎng)絡(luò)(MGN)——Loss設(shè)計

Loss 說簡單也簡單,說復(fù)雜也復(fù)雜也復(fù)雜,為什么?簡單是因為整個模型里只用了兩種Loss,是機器學(xué)習(xí)里最常見的,一個是 SoftmaxLoss 一個是 TripletLoss。復(fù)雜是因為分支比較多,包括 global 的,包括剛才 local 的分支,而且在各個分支的 Loss 設(shè)計上不是完全均等的。我們當時做了些實驗和思考去想 Loss 的設(shè)計。現(xiàn)在這個方案,第一,從實踐上證明是比較好的,第二,從理解上也是容易理解的。

首先,看一下 global 分支。上面第一塊的 Loss 設(shè)計。這個地方對 2048 維做了SoftmaxLoss,對 256 維做了一個 TripletLoss,這是對 global 信息通用的方法。下面兩個部分 global 的處理方式也是一樣的,都是對 2048 做一個 SoftmaxLoss,對 256 維做一個 TripletLoss。中間 part-2 地方有一個全局信息,有 global 特征,做 SoftmaxLoss+TripletLoss。

但是,下面兩個 Local 特征看不到 TripletLoss,只用了 SoftmaxLoss,這個在文章里也有討論,我們當時做了實驗,如果對細節(jié)當和分支做 TripletLoss,效果會變差。為什么效果會變差?

一張圖片分成從上到下兩部分的時候,最完美的情況當然是上面部分是上半身,下面部分是下半身,但是在實際的圖片中,有可能整個人都在上半部分,下半部分全是背景,這種情況用上、下部分來區(qū)分,假設(shè)下半部分都是背景,把這個背景放到 TripletLoss 三元損失里去算這個 Loss,就會使得這個模型學(xué)到莫名其妙的特征。

比如背景圖是個樹,另外一張圖是某個人的下半身,比如一個女生的下半身是一個裙子,你讓裙子跟另外圖的樹去算距離,無論是同類還是不同類,算出來的距離是沒有任何物理意義或?qū)嶋H意義的。從模型的角度來講,它屬于污點數(shù)據(jù),這個污點數(shù)據(jù)會引導(dǎo)整個模型崩潰掉或者學(xué)到錯誤信息,使得預(yù)測的時候引起錯誤。所以以后有同學(xué)想復(fù)現(xiàn)我們方法的時候要注意一下, Part-2、part-3 的 Local 特征千萬不要加 TripletLoss。

▌(四)多粒度網(wǎng)絡(luò)(MGN)——實驗參數(shù)

圖片展示的是一些實驗參數(shù),因為很多同學(xué)對復(fù)現(xiàn)我們的方案有一定興趣,也好奇到底這個東西為什么可以做那么好。其實我們在文章里把很多參數(shù)說得非常透,大家可以按照我們的參數(shù)去嘗試一下。

我們當時用的框架是 Pytorch。TripletLoss 復(fù)現(xiàn)是怎么選擇的?我們這個 batch是選 P=16,K=4,16×4,64 張圖作為 batch,是隨機選擇16 個人,每個人隨機選擇 4 張圖。

然后用 SGD 去訓(xùn)練,我們的參數(shù)用的是 0.9。另外,我們做了weightdecay,參數(shù)是萬分之五。像 Market1501 是訓(xùn)練 80epochs,是基于 Resnet50 微調(diào)了。我們之前實驗過,如果不基于 Resnet50,用隨機初始化去訓(xùn)練的話效果很差,很感謝 Resnet50 的作者,對這個模型訓(xùn)練得 非常有意義。

初始學(xué)習(xí)率是百分之一,到 40 個 epoch 降為千分之一,60 個 epoch 時降為萬分之一。我們評估時會對評估圖片做左右翻轉(zhuǎn)后提取兩個特征,這兩個特征求一個平均值,代表這張圖片的特征。剛才有人問到我們用了什么硬件,我們用了 2 張的 TITAN 的 GPU

在 Market1501 上訓(xùn)練 80 epoch的時間大概差不多是 2 小時左右,這個時間是可以接受的,一天訓(xùn)練得快一點可以做出 5-10 組實驗。

▌(五)多粒度網(wǎng)絡(luò)(MGN)——實驗結(jié)果

我們發(fā)表成果時,這個結(jié)果是屬于三個數(shù)據(jù)集上最好的。

1、Market1501。我們不做 ReRank 的時候,原始的 Rank1 是 95.7%,mAP 是 86.9%,跟剛才講的業(yè)內(nèi)比較好的 PCB 那個文章相比,我們的 Rank1 提高差不多 1.9 個點,mAP 整整提高 5.3 個點,得到非常大的提升。

2、RK。Rank1 達到 96.6%,mAP 是 94.2%。RK 是 ReRank 重新排序的簡稱,ReID 有一篇文章是專門講 ReRank 技術(shù)的,不是從事 ReID 的同學(xué)對 ReRank 的技術(shù)可能有一定迷惑,大家就理解為這是某種技術(shù),這種技術(shù)是用在測試結(jié)果重新排列的結(jié)果,它會用到測試集本身的信息。因為在現(xiàn)實意義中很有可能這個測試集是開放的,沒有辦法用到測試集信息,就沒有辦法做ReRank,前面那個原始的 Rank1 和 mAP 比較有用。

但是對一些已知道測試集數(shù)據(jù)分布情況下,可以用 ReRank 技術(shù)把這個指標有很大的提高,特別是 mAP,像我們方案里從 86.9% 提升到 94.2%,這其中差不多 7.3% 的提升,是非常顯著的。

3、DukeMTMC-reID和 CUHKO3這兩個結(jié)果在我們公布研究成果時算是最好的,我們是4月份公布的成果,現(xiàn)在是 6 月份了,最近 2 個月 CEPR 對關(guān)于 ReID 的文章出了差不多 30 幾篇,我們也在關(guān)注結(jié)果。現(xiàn)在除了我們以外最好的成果,原始 Rank1 在 93.5%-94% 之間,mAP 在83.5%-84% 之間,很少看到 mAP 超過 84% 或者 85% 的關(guān)于。

▌(六)多粒度網(wǎng)絡(luò)(MGN)——有趣的對比實驗

因為網(wǎng)絡(luò)結(jié)構(gòu)很復(fù)雜,這么復(fù)雜的事情能說得清楚嗎?里面各個分支到底有沒有效?我們在文章里做了幾組比較有意思的實驗,這里跟大家對比一下。

第一個對比,對比 MGN 跟 Resnet50,這倒數(shù)第二行,就是那個 MGN w/o TP,跟第一行對比,發(fā)現(xiàn)我們的多粒度網(wǎng)絡(luò)比 Resnet50 水平,Rank1 提高了 7.8%,mAP 提高了14.8%,整體效果是不錯的。

第二個對比,因為我們的網(wǎng)絡(luò)有三個分支,里面參數(shù)量肯定會增加,增加的幅度跟 Resnet101的水平差不多,是不是我們網(wǎng)絡(luò)成果來自于參數(shù)增加?我們做了一組實驗,第二行有一個 Resnet101,它的 rank1 是 90.4%,mAP 是 78%,這個比 Resnet50 確實好了很多,但是跟我們的工作成果有差距,說明我們的網(wǎng)絡(luò)也不是純粹堆參數(shù)堆出來的結(jié)果,應(yīng)該是有網(wǎng)絡(luò)設(shè)計的合理性在。

第三個對比,表格第二個大塊,搞了三個分支,把這三個分支做成三個獨立的網(wǎng)絡(luò),同時獨立訓(xùn)練,然后把結(jié)果結(jié)合在一起,是不是效果跟我們差不多,或者比我們好?我們做了實驗,最后的結(jié)果是“G+P2+P3(single)”,Rank1 有 94.4%,mAP85.2%,效果也不錯,但跟我們?nèi)齻€網(wǎng)絡(luò)聯(lián)合的網(wǎng)絡(luò)結(jié)構(gòu)比起來,還是我們的結(jié)構(gòu)更合理。我們的解釋是不同分支在學(xué)習(xí)的時候,會互相去督促或者互相共享有價值的信息,使得大家即使在獨立運作時也會更好。

▌(七)多粒度網(wǎng)絡(luò)(MGN)——多粒度網(wǎng)絡(luò)效果示例

這是排序圖片的呈現(xiàn)效果,左圖是排序位置,4 個人的檢索結(jié)果,前 2 個人可以看到我們的模型是很強的,無論這個人是側(cè)身、背身還是模糊的,都能夠檢測出來。尤其是第 3 個人,這張圖是非常模糊的,整個人是比較黑的,但是我們這個模型根據(jù)他的綠色衣服、白色包的信息,還是能夠找出來,盡管在第 9 位有一個判斷失誤。第 4 個人用了一張背面的圖,背個包去檢索,可以發(fā)現(xiàn)結(jié)果里正臉照基本被搜出來了。

右邊是我們的網(wǎng)絡(luò)注意力模型,比較有意思的一個結(jié)果,左邊是原圖,右邊從左到右有三列,是 global、part2、part3 的特征組,可以看到 global 的時候分布是比較均勻的,說明它沒有特別看細節(jié)。

越到右邊的時候,發(fā)現(xiàn)亮點越小,越關(guān)注在局部點上,并不是完整的整個人的識別。第 4 個人我用紅圈圈出來了,這個人左胸有一個 LOGO,看 part3 右邊這張圖的時候,整個人只有在 LOGO 地方有一個亮點或者亮點最明顯,說明我們網(wǎng)絡(luò)在 part3 專門針對這個 LOGO 學(xué)到非常強的信息,檢索結(jié)果里肯定是有這個 LOGO 的人排列位置比較靠前。

四、應(yīng)用場景與技術(shù)展望

▌(一)ReID 的應(yīng)用場景

第一個,與人臉識別結(jié)合。

之前人臉識別技術(shù)比較成熟,但是人臉識別技術(shù)有一個明顯的要求,就是必須看到相對清晰的人臉照,如果是一個背面照,完全沒有人臉的情況下,人臉識別技術(shù)是失效的。

但 ReID 技術(shù)和人臉的技術(shù)可以做一個補充,當能看到人臉的時候用人臉的技術(shù)去識別,當看不到人臉的時候用 ReID 技術(shù)去識別,可以延長行人在攝像頭連續(xù)跟蹤的時空延續(xù)性。右邊位置2、位置3、位置4 的地方可以用 ReID 技術(shù)去持續(xù)跟蹤。跟人臉識別結(jié)合是大的 ReID 的應(yīng)用方向,不是具象的應(yīng)用場景。

第二個,智能安防。

它的應(yīng)用場景是這樣子的,比如我已經(jīng)知道某個嫌疑犯的照片,警察想知道嫌疑犯在監(jiān)控視頻里的照片,但監(jiān)控視頻是 24 小時不間斷在監(jiān)控,所以數(shù)據(jù)量非常大,監(jiān)控攝像頭非常多,比如有幾百個、幾十個攝像頭,但人來對攝像頭每秒每秒去看的話非常費時,這時可以用 ReID 技術(shù)。

ReID 根據(jù)嫌疑犯照片,去監(jiān)控視頻庫里去收集嫌疑犯出現(xiàn)的視頻段。這樣可以把嫌疑犯在各個攝像頭的軌跡串連起來,這個軌跡一旦串連起來之后,相信對警察的破案刑偵有非常大的幫助。這是在智能安防的具象應(yīng)用場景。

第三個,智能尋人系統(tǒng)。

比如大型公共場所,像迪斯尼樂園,爸爸媽媽帶著小朋友去玩,小朋友在玩的過程中不小心與爸爸媽媽走散了,現(xiàn)在走散時是在廣播里播一下“某某小朋友,你爸爸媽媽在找你”,但小朋友也不是非常懂,父母非常著急。

這時可以用 ReID 技術(shù),爸爸媽媽提供一張小朋友拍的照片,因為游樂園里肯定拍了小朋友拍的照片,比如今天穿得什么衣服、背得什么包,把這個照片輸入到 ReID 系統(tǒng)里,實時的在所有監(jiān)控攝像頭尋找這個小朋友的照片,ReID 有這個技術(shù)能力,它可以很快的找到跟爸爸媽媽提供的照片最相似的人,相信對立馬找到這個小朋友有非常大的幫助。

這種大型公共場所還有更多,比如超市、火車站、展覽館,人流密度比較大的公共場所。智能尋人系統(tǒng)也是比較具象的 ReID 應(yīng)用場景。

第四個,智能商業(yè)-大型商場。

想通過了解用戶在商場里的行為軌跡,通過行為軌跡了解用戶的興趣,以便優(yōu)化用戶體驗。ReID 可以根據(jù)行人外觀的照片,實時動態(tài)跟蹤用戶軌跡,把軌跡轉(zhuǎn)化成管理員能夠理解的信息,以幫助大家去優(yōu)化商業(yè)體驗。

這個過程中會涉及到用戶隱私之類的,但從 ReID 的角度來講,我們比較提倡數(shù)據(jù)源來自于哪個商場,那就應(yīng)用到哪個商場。因為 ReID 的數(shù)據(jù)很復(fù)雜,數(shù)據(jù)的遷移能力是比較弱的,這個上場的數(shù)據(jù)不見得在另外一個商場里能用,所以我們提倡 ReID 的數(shù)據(jù)應(yīng)用在本商場。

第五個,智能商業(yè)-無人超市。

無人超市也有類似的需求,無人超市不只是體驗優(yōu)化,它還要了解用戶的購物行為,因為如果只基于人臉來做,很多時候是拍不到客戶的正面,ReID 這個技術(shù)在無人超市的場景下有非常大的應(yīng)用幫助。

第六個,相冊聚類。

現(xiàn)在拍照時,可以把相同人的照片聚在一起,方便大家去管理,這也是一個具象的應(yīng)用場景。

第七個,家庭機器人

家庭機器人通過衣著或者姿態(tài)去認知主人,做一些智能跟隨等動作,因為家庭機器人很難實時看到主人的人臉,用人臉識別的技術(shù)去做跟蹤的話,我覺得還是有一些局限性的。但是整個人體的照片比較容易獲得,比如家里有一個小的機器人,它能夠看到主人的照片,無論是上半年還是下半年,ReID 可以基于背影或者局部服飾去識別。

▌(二)ReID 的技術(shù)展望

第一個,ReID 的數(shù)據(jù)比較難獲取,如果用應(yīng)用無監(jiān)督學(xué)習(xí)去提高 ReID 效果,可以降低數(shù)據(jù)采集的依賴性,這也是一個研究方向。右邊可以看到,GAN生成數(shù)據(jù)來幫助 ReID 數(shù)據(jù)增強,現(xiàn)在也是一個很大的分支,但這只是應(yīng)用無監(jiān)督學(xué)習(xí)的一個方向。

第二個,基于視頻的 ReID。因為剛才幾個數(shù)據(jù)集是基于對視頻切好的單個圖片而已,但實際應(yīng)用場景中還存在著視頻的連續(xù)幀,連續(xù)幀可以獲取更多信息,跟實際應(yīng)用更貼近,很多研究者也在進行基于視頻 ReID 的技術(shù)。

第三個,跨模態(tài)的 ReID。剛才講到白天和黑夜的問題,黑夜時可以用紅外的攝像頭拍出來的跟白色采樣攝像頭做匹配。

第四個,跨場景的遷移學(xué)習(xí)。就是在一個場景比如 market1501 上學(xué)到的 ReID,怎樣在 Duke數(shù)據(jù)集上提高效果。

第五個,應(yīng)用系統(tǒng)設(shè)計。相當于設(shè)計一套系統(tǒng)讓 ReID 這個技術(shù)實際應(yīng)用到行人檢索等技術(shù)上去。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1804

    文章

    48677

    瀏覽量

    246351
  • REID
    +關(guān)注

    關(guān)注

    1

    文章

    18

    瀏覽量

    10997

原文標題:云從科技資深算法研究員:詳解跨鏡追蹤(ReID)技術(shù)實現(xiàn)及難點 | 公開課筆記

文章出處:【微信號:AI_Thinker,微信公眾號:人工智能頭條】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    電流設(shè)計步驟詳解【全過程】

    設(shè)計。電流設(shè)計步驟詳解【全過程】[/hide]大致內(nèi)容為: 1、邊界條件2、設(shè)計指標 3、確定電路拓撲結(jié)構(gòu)4、設(shè)計變量初始估算5、HSPICE仿真驗證6、版圖設(shè)計7、討論&結(jié)論
    發(fā)表于 11-04 16:31

    ARM微處理器應(yīng)用開發(fā)技術(shù)詳解與實例分析

    ARM微處理器應(yīng)用開發(fā)技術(shù)詳解與實例分析
    發(fā)表于 08-16 20:19

    光線追蹤技術(shù)介紹

    光線追蹤:一種顛覆性技術(shù)
    發(fā)表于 01-22 07:19

    自動化測試技術(shù)發(fā)展趨勢展望分析,不看肯定后悔

    自動化測試技術(shù)發(fā)展趨勢展望分析,不看肯定后悔
    發(fā)表于 05-14 06:50

    使用LabVIEW進行物體追蹤圖像處理分析

    使用LabVIEW進行物體追蹤圖像處理分析 近年來,伴隨著科技的進步,生物科技也成為一個相當熱門的研究,其中包含了藥物學(xué)、行為科學(xué)…等多項領(lǐng)域。而不論是哪一項領(lǐng)域的研究,都必須由大量的動物實驗來探討
    發(fā)表于 02-22 20:10

    人工智能即將從“刷臉”跨到“識人”的新紀元

    人工智能“國家隊”云從科技在追蹤技術(shù)ReID)上取得重大突破。同時在Market-1501、CUHK03、DukeMTMC-
    發(fā)表于 04-12 15:51 ?1139次閱讀

    云從科技助中國電信開啟人工智能化戰(zhàn)略

    人工智能為什么讓通信行業(yè)瘋狂?為什么我們需要追蹤(Re ID)技術(shù)
    的頭像 發(fā)表于 06-06 14:06 ?3410次閱讀

    刷新三項世界紀錄的ReID技術(shù)

    追蹤技術(shù)是現(xiàn)在計算機視覺研究的熱門方向,主要解決攝像頭場景下行人的識別與檢索。該
    的頭像 發(fā)表于 06-06 14:29 ?5632次閱讀

    澎思科技ReID技術(shù)取得新突破

    近日,澎思科技在行人再識別(ReID)算法上取得重大突破,在三大主流ReID數(shù)據(jù)集測試(Market1501,DukeMTMC-reID,CUHK03)中,其算法關(guān)鍵指標首位命中率獲得業(yè)內(nèi)最好成績,刷新了世界紀錄。
    的頭像 發(fā)表于 07-10 09:44 ?3546次閱讀

    ReID行人重識別再破行業(yè)新高,多目標定位與追蹤精準呈現(xiàn)

    近日,海格星航在AI人工智能領(lǐng)域中的ReID行人重識別算法取得重大技術(shù)突破,在人體特征提取方面取得“星”成就。通過采用殘差網(wǎng)絡(luò)和引入注意力機制,提升了對人體整體特征的識別度,增強了對人體細節(jié)特征的辨別能力;
    的頭像 發(fā)表于 11-22 11:10 ?5761次閱讀

    Vulkan光線追蹤技術(shù),實現(xiàn)平臺和系統(tǒng)

    Vulkan推進組織Khronos Group今晚宣布Vulkan的光線追蹤技術(shù),這將是業(yè)界第一個平臺、系統(tǒng)的開放式光追API,AMD、NVIDIA及Intel也在第一時間宣布支持
    的頭像 發(fā)表于 03-18 15:28 ?2317次閱讀

    基于其自主知識產(chǎn)權(quán)的新一代商用級追蹤Re-ID技術(shù)

    據(jù)介紹,與已廣泛應(yīng)用的人臉識別技術(shù)相比,追蹤Re-ID對攝像頭拍攝條件的限制更小,在復(fù)雜場景的檢索性能更強,使用范圍更加廣泛。
    的頭像 發(fā)表于 06-11 10:27 ?2034次閱讀
    基于其自主知識產(chǎn)權(quán)的新一代商用級<b class='flag-5'>跨</b><b class='flag-5'>鏡</b><b class='flag-5'>追蹤</b>Re-ID<b class='flag-5'>技術(shù)</b>

    你知道人體識別嗎,ReID技術(shù)了解一下

    ,就能夠得到需要尋找人的位置。 是不是每次看到這類鏡頭都會感到很神奇呢?其實這么神奇的技術(shù)里面,就有著追蹤(ReID
    的頭像 發(fā)表于 02-03 15:47 ?3807次閱讀

    基于OpenVINO?工具包部署飛槳PP-Human的全流程

    PP-Human是飛槳目標檢測套件PaddleDetection中開源的實時行人分析工具,提供了五大異常行為識別和四大產(chǎn)業(yè)級功能:人體屬性分析、人流計數(shù)、
    的頭像 發(fā)表于 02-23 18:03 ?1117次閱讀

    詳解時域瞬態(tài)分析技術(shù)

    詳解時域瞬態(tài)分析技術(shù)
    的頭像 發(fā)表于 12-07 14:45 ?1117次閱讀
    <b class='flag-5'>詳解</b>時域瞬態(tài)<b class='flag-5'>分析</b><b class='flag-5'>技術(shù)</b>