女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一個簡單且高效的目標(biāo)檢測算法,該算法降低了訓(xùn)練門檻

新機器視覺 ? 來源:知乎 ? 作者:David ? 2020-09-24 12:36 ? 次閱讀

摘要:

隨著深度學(xué)習(xí)的發(fā)展,目前已經(jīng)出現(xiàn)了很多算法(或者訓(xùn)練技巧,tricks)來提升神經(jīng)網(wǎng)絡(luò)的準(zhǔn)確率。在實際測試中評價一個算法的好壞優(yōu)劣主要看兩點,一是能否在大規(guī)模的數(shù)據(jù)集中起作用(work),二是是否有理論依據(jù)。一些算法僅能在某些特定的模型上或者某類特定的問題上運行,亦或是適用于一些小規(guī)模的數(shù)據(jù)集。然而,還有一些算法,例如batch normalization(BN)或者殘差連接(residual-connections)已經(jīng)被用在了不同的模型,任務(wù)以及不同的數(shù)據(jù)集中,已經(jīng)被充分的證明了這些算法的普適性,是一個general的算法。我們假設(shè)這樣的general(or universal)的算法包括Weighted-residual-connection(WRC),cross-stage-partial-connections(SCP),cross mini-batch Normalization(CmBN),self-adversarial-training(SAT)以及mish-activation。此外,我們還加了一些其余的tricks,包括Mosaic data augmentation,DropBlock regularization,CIoU loss,設(shè)計了一個YOLO-V4,并且在MS coco數(shù)據(jù)集中取得了新的state-of-the-art的結(jié)果:在Tesla V100顯卡能達(dá)到43.5% AP(65.7% AP)的精度,且達(dá)到~65FPS的速度。目前代碼已經(jīng)開源:

Introduction

Yolo-V4的主要目的在于設(shè)計一個能夠應(yīng)用于實際工作環(huán)境中的快速目標(biāo)檢測系統(tǒng),且能夠被并行優(yōu)化,并沒有很刻意的去追求理論上的低計算量(BFLOP)。同時,Yolo-V4的作者希望算法能夠很輕易的被訓(xùn)練,也就是說擁有一塊常規(guī)了GTX-2080ti或者Titan-XP GPU就能夠訓(xùn)練Yolo-V4, 同時能夠得到一個較好的結(jié)果(Yolo-V4 結(jié)果如上圖)。整個introduction可以總結(jié)為以下幾點:

研究設(shè)計了一個簡單且高效的目標(biāo)檢測算法,該算法降低了訓(xùn)練門檻,使得普通人員在擁有一塊1080TI或者2080TI的情況下就能夠訓(xùn)練一個super fast and accurate 的目標(biāo)檢測器

在訓(xùn)練過程中,驗證了最新的Bag-of-Freebies和Bag-of-Specials對Yolo-V4的影響

簡化以及優(yōu)化了一些最新提出的算法,包括(CBN,PAN,SAM),從而使Yolo-V4能夠在一塊GPU上就可以訓(xùn)練起來。

Related work

首先解釋一下相關(guān)的名詞:

Input:算法的輸入,包括整個圖像,一個patch,或者是image pyramid

Backbone:可以理解為是提取圖像特征的部分,由于圖像中的淺層特征(low-level)是比較類似的,例如提取邊緣,顏色,紋理這些。因此這部分可以很好的借鑒一些設(shè)計好并且已經(jīng)訓(xùn)練好的網(wǎng)絡(luò),例如(VGG16,19,ResNet-50, ResNeXt-101, Darknet53), 同時還有一些輕量級的backbone(MobilenetV1,2,3 ShuffleNet1,2)。

Neck:這部分我的理解是特征增強模塊,前面的backbone已經(jīng)提取到了一些相關(guān)的淺層特征,由這部分對backbone提取到的淺層特征(low-level feature)進行加工,增強,從而使得模型學(xué)到的特征是我想要的特征。這部分典型的有(SPP,ASPP in deeplabV3+,RFB,SAM),還有一些(FPN, PAN, NAS-FPN, BiFPN, ASFF, SFAM)。

Head:檢測頭。這部分就到了算法最關(guān)鍵的部分,就是來輸出你想要的結(jié)果,例如想得到一個heatmap,(如在centernet中),那就增加一些反卷積層來一層一層反卷積回去。如果想直接得到bbox,那就可以接conv來輸出結(jié)果,例如Yolo,ssd這些。亦或是想輸出多任務(wù)(mask-RCNN)那就輸出三個head:classification,regression,segmentation(就是mask那部分)。

因此,一個檢測算法可以理解為:

Object Detection = Backbone + Neck + Head

2.1. Bag of freebies

什么叫Bag of freebies?字面上的意思就是免費贈品。在目標(biāo)檢測中是指:用一些比較有用的訓(xùn)練技巧來訓(xùn)練模型,從而使得模型取得更好的準(zhǔn)確率但是不增加模型的復(fù)雜度,也就不增加推理(inference)是的計算量(cost)。在目標(biāo)檢測中,提到bag of freebies,首先會想到的 就是Data augmentation。

2.1.1 : Data augmentation 的目的在于增加訓(xùn)練樣本的多樣性,使得檢測模型具有高的魯棒性。常見的不能再常見的數(shù)據(jù)增強方式包括兩個方面:幾何增強以及色彩增強。

幾何增強包括:隨機翻轉(zhuǎn)(水平翻轉(zhuǎn)較多,垂直翻轉(zhuǎn)較少),隨機裁剪(crop),拉伸,以及旋轉(zhuǎn)。

色彩增強包括:對比度增強,亮度增強,以及較為關(guān)鍵的HSV空間增強。

上述說的色彩以及幾何增強都是pixel-wise 的調(diào)整。此外還有一些數(shù)據(jù)增強方法被用來解決目標(biāo)遮擋及不足的問題。

在圖像中隨機裁剪矩形區(qū)域,并用0來填充(random erase和CutOut算法)

隨機裁剪多個矩形區(qū)域(hide-and-seek, grid mask)

上述算法是在圖像中裁剪矩形區(qū)域并填充0,那么算法在heatmap上裁剪并填充的叫做(DropOut,DropConnect, DropBlock)

此外還有一個重要的data augmentation算法叫做MIX-UP。Mix-up在分類任務(wù)中,將兩個圖像按照不同的比例相加,例如A*0.1+B*0.9=C,那么C的label就是[0.1A, 0.9B]。在目標(biāo)檢測中的做法就是將一些框相加,這些label中就多了一些不同置信度的框。

還有一類是style-transfer GAN做數(shù)據(jù)增強,例如在做街景分割和目標(biāo)檢測的時候,將GTA-5的數(shù)據(jù)做一個style-transfer,擴充一些數(shù)據(jù)集。不過更多的是用在了Domain Adaptation上。

2.1.2 : 不同于上述說的data augmentation,第二類方法是要解決數(shù)據(jù)不均衡問題(imbalance problems in object detection),數(shù)據(jù)不均衡問題在目標(biāo)檢測中是一個特別難的問題,Yolo-V4中沒有細(xì)說,但是最近的一篇PAMI綜述論文,用了30幾頁詳細(xì)介紹了這個問題,論文可以見我專欄的第一篇文章。下面我簡單說一下:數(shù)據(jù)不均衡包括了兩種一種是訓(xùn)練的背景和我要識別的物體之間的不均衡,例如在two-stage的方法中,首先在RPN階段會生成了很多個ROI,這里面有太多的背景了,有用的框會很少。還有一類不均衡是類別之間的不均衡,例如在COCO數(shù)據(jù)集中一些常見的物體例如人就會很多,不常見的就會比較少,這樣類別之間還有不平衡,這就涉及到另外一個問題了,叫做長尾分布(long-tailed Data),也是比較棘手的問題。這里面比較經(jīng)典的算法就是在two-stage 中使用hard negative example mining or online head example mining (OHEM)。還有一個比較經(jīng)典的算法就是Focal-loss,來處理數(shù)據(jù)不均衡的問題。還有一個trick就是關(guān)于One-hot編碼之后label沒有關(guān)聯(lián),針對這個問題進行l(wèi)abel-smooth。

2.1.3: 第三個bag of freebies就是在loss function上進行改動,之前常用的計算bbox的loss 使用MSE,現(xiàn)在改為了計算IOU之間的loss,還有一個叫做GIoU loss。這里面有一個比較經(jīng)典的算法就是在Mask-RCNN上改動的MASK SCoring RCNN中,這部分的邏輯是這樣的:在選擇ROI時,如果按照每個ROI的score來排序篩選ROI,會出現(xiàn)一個問題就是,置信度高的ROI并不一定BBOX的位置就準(zhǔn),后來作者嘗試了使用IoU來篩選ROI,發(fā)現(xiàn)效果要好。

2.2. Bag of specials

什么叫做bag of specials:就是指一些plugin modules(例如特征增強模型,或者一些后處理),這部分增加的計算量(cost)很少,但是能有效地增加物體檢測的準(zhǔn)確率,我們將這部分稱之為Bag of specials。這部分插件模塊能夠增強網(wǎng)絡(luò)模型的一些屬性,例如增大感受域(ASFF,ASPP,RFB這些模塊),引入注意力機制(有兩種一種是spatial attention,另外一種是channel attention),增加特征集成能力(FPN,ASFF,BiFPN)。后處理算法是指用一些算法來篩選模型預(yù)測出來的結(jié)果

2.2.1 增大感受域

SPP:He提出了一個比較經(jīng)典的算法,當(dāng)時解決了一個問題就是我在測試的時候,輸入尺寸可以與訓(xùn)練的時候 不一樣。但是當(dāng)網(wǎng)絡(luò)中有FC的時候,尺寸必須是固定的,這時候,SPP作用就體現(xiàn)出來了,按照比例劃分pooling,最后輸出的結(jié)果就是一致的了。

ASPP:我記得是用在了DeepLabV3系列中,與SPP不同前面加了Atrous or dilated ,在Pooling中加入了dilated ratio。

RFB:就是說是在同一個featuremap下引入不同dilated ration的空洞卷積,這樣提取到了不同感受野的特征,最后進行融合。

2.2.2 引入注意力機制

Channel Attention:最經(jīng)典的就是SEnet(Squeeze-and-Excitation),這個算法一開始獲得了imagenet分類任務(wù)中的冠軍,他的原理是這樣的,在featuremap層中同時引入一個1X1XC的weights,這樣對每個channel上的特征加入不同的權(quán)重,這樣提高特征學(xué)習(xí)能力,注意:SE module是在channel 這個維度上進行加入權(quán)重。后來又有一篇CVPR用SE module做了分割任務(wù),從側(cè)面證明了SE module很好用。

Spatial Attention Module:從字面意思上來理解,就是在HW維度上加入attention,上述是在Channel維度上加入Attention。

Channel+Spatial:一個featuremap的維度:NCHW,N:batch size,C:channel,H:height,W:weight。Channel attention 和spatial attention 是從兩個不同的方法對feature進行增強,接著又有一篇paper對二者進行融合,channel attention+spatial attention

2.2.3 特征融合or特征集成

Skip connection:用在encoder-decoder中比較多,例如最經(jīng)典的Unet,融入了low-level和high-level的信息,在目標(biāo)檢測中主要用在了類似于pose這一類的檢測任務(wù)中,例如DLA,Hourglass,以及最近的CenterNet

hyper-column:最經(jīng)典的就要屬于InceptionV1-4結(jié)構(gòu)了,使用不同的kernel-size的convolution來集成特征。

FPN,ASFF,BiFPN:在我看來都屬于一類,屬于將不同stage下不同scale的特征進行融合,只是連接融合的方式不一樣,F(xiàn)PN是最經(jīng)典的,efficientdet中的BiFPN連接的最密集。

2.2.4 激活函數(shù)

一個好的激活函數(shù)能夠使得梯度傳播的更高效,并且不會占用額外的計算資源。常見的激活函數(shù)有以下:(由于我對激活函數(shù)沒有研究過,所以這邊就不畫蛇添足了,直接把論文中的摘錄下來)

ReLU

LRelu, PReLU, SELU,ReLu6, Swish, hard-Swish Mish

2.2.5 后處理

經(jīng)典的后處理包含了NMS,soft NMS,DIoU NMS

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4809

    瀏覽量

    102838
  • gpu
    gpu
    +關(guān)注

    關(guān)注

    28

    文章

    4912

    瀏覽量

    130683
  • 算法
    +關(guān)注

    關(guān)注

    23

    文章

    4700

    瀏覽量

    94796

原文標(biāo)題:YOLO-V4解讀:速度與精度的完美結(jié)合[已開源]

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    基于RK3576開發(fā)板的車輛檢測算法

    車輛檢測種基于深度學(xué)習(xí)的對人進行檢測定位的目標(biāo)檢測,能廣泛的用于園區(qū)管理、交通分析等多種場景,是違停識別、堵車識別、車流統(tǒng)計等多種
    的頭像 發(fā)表于 05-08 17:34 ?842次閱讀
    基于RK3576開發(fā)板的車輛<b class='flag-5'>檢測算法</b>

    基于RK3576開發(fā)板的安全帽檢測算法

    安全帽佩戴檢測是工地、生產(chǎn)安全、安防的重中之重,但人為主觀檢測的方式時效性差且不能全程監(jiān)控。AI技術(shù)的日漸成熟催生了安全帽佩戴檢測方案,成為了監(jiān)督佩戴安全帽的利器。本安全帽檢測算法
    的頭像 發(fā)表于 05-08 16:59 ?1509次閱讀
    基于RK3576開發(fā)板的安全帽<b class='flag-5'>檢測算法</b>

    基于RK3576開發(fā)板的人員檢測算法

    展示了RK3576開發(fā)板的人員檢測算法例程及API說明
    的頭像 發(fā)表于 05-07 17:33 ?218次閱讀
    基于RK3576開發(fā)板的人員<b class='flag-5'>檢測算法</b>

    基于RV1126開發(fā)板的車輛檢測算法開發(fā)

    車輛檢測種基于深度學(xué)習(xí)的對人進行檢測定位的目標(biāo)檢測,能廣泛的用于園區(qū)管理、交通分析等多種場景,是違停識別、堵車識別、車流統(tǒng)計等多種
    的頭像 發(fā)表于 04-14 16:00 ?227次閱讀
    基于RV1126開發(fā)板的車輛<b class='flag-5'>檢測算法</b>開發(fā)

    基于RV1126開發(fā)板的安全帽檢測算法開發(fā)

    安全帽佩戴檢測是工地、生產(chǎn)安全、安防的重中之重,但人為主觀檢測的方式時效性差且不能全程監(jiān)控。AI技術(shù)的日漸成熟催生了安全帽佩戴檢測方案,成為了監(jiān)督佩戴安全帽的利器。本安全帽檢測算法
    的頭像 發(fā)表于 04-14 15:10 ?213次閱讀
    基于RV1126開發(fā)板的安全帽<b class='flag-5'>檢測算法</b>開發(fā)

    基于RV1126開發(fā)板的人臉檢測算法開發(fā)

    在RV1126上開發(fā)人臉檢測算法組件
    的頭像 發(fā)表于 04-14 10:19 ?240次閱讀
    基于RV1126開發(fā)板的人臉<b class='flag-5'>檢測算法</b>開發(fā)

    軒轅智駕紅外目標(biāo)檢測算法在汽車領(lǐng)域的應(yīng)用

    在 AI 技術(shù)蓬勃發(fā)展的當(dāng)下,目標(biāo)檢測算法取得了重大突破,其中紅外目標(biāo)檢測算法更是在汽車行業(yè)掀起了波瀾壯闊的變革,從根本上重塑著汽車的安全性能、駕駛體驗與產(chǎn)業(yè)生態(tài)。
    的頭像 發(fā)表于 03-27 15:55 ?324次閱讀

    睿創(chuàng)微納推出新目標(biāo)檢測算法

    隨著AI技術(shù)的發(fā)展,目標(biāo)檢測算法也迎來重大突破。睿創(chuàng)微納作為熱成像領(lǐng)軍者,憑借深厚的技術(shù)積累與創(chuàng)新能力,結(jié)合AI技術(shù)推出新目標(biāo)檢測算法,
    的頭像 發(fā)表于 03-20 13:49 ?346次閱讀

    讓大模型訓(xùn)練高效,奇異摩爾用互聯(lián)創(chuàng)新方案定義下代AI計算

    ? 電子發(fā)燒友網(wǎng)報道(文/吳子鵬)近段時間以來,DeepSeek現(xiàn)象級爆火引發(fā)產(chǎn)業(yè)對大規(guī)模數(shù)據(jù)中心建設(shè)的思考和爭議。在訓(xùn)練端,DeepSeek以開源模型通過算法優(yōu)化(如稀疏計算、動態(tài)架構(gòu))
    的頭像 發(fā)表于 02-18 09:19 ?1228次閱讀
    讓大模型<b class='flag-5'>訓(xùn)練</b>更<b class='flag-5'>高效</b>,奇異摩爾用互聯(lián)創(chuàng)新方案定義下<b class='flag-5'>一</b>代AI計算

    在樹莓派上部署YOLOv5進行動物目標(biāo)檢測的完整流程

    目標(biāo)檢測在計算機視覺領(lǐng)域中具有重要意義。YOLOv5(You Only Look One-level)是目標(biāo)檢測算法中的種代表性方法,以其
    的頭像 發(fā)表于 11-11 10:38 ?3355次閱讀
    在樹莓派上部署YOLOv5進行動物<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>的完整流程

    旗晟機器人環(huán)境檢測算法有哪些?

    硬件支撐,更離不開強大的算法庫作為軟件核心,二者相輔相成,缺不可。今天就來了解旗晟機器人環(huán)境檢測算法。 1、設(shè)施異常監(jiān)測 通過集成高精度傳感器與智能圖像識別技術(shù)。它不僅能檢測A字梯是
    的頭像 發(fā)表于 07-19 17:54 ?810次閱讀
    旗晟機器人環(huán)境<b class='flag-5'>檢測算法</b>有哪些?

    慧視小目標(biāo)識別算法 解決目標(biāo)檢測中的老大難問題

    隨著深度學(xué)習(xí)和人工智能技術(shù)的興起與技術(shù)成熟,大批如FasterR-CNN、RetinaNet、YOLO等可以在工業(yè)界使用的目標(biāo)檢測算法已逐步成熟并進入實際應(yīng)用,大多數(shù)場景下的目標(biāo)
    的頭像 發(fā)表于 07-17 08:29 ?902次閱讀
    慧視小<b class='flag-5'>目標(biāo)</b>識別<b class='flag-5'>算法</b>   解決<b class='flag-5'>目標(biāo)</b><b class='flag-5'>檢測</b>中的老大難問題

    口罩佩戴檢測算法

    口罩佩戴檢測算法基于YOLOv5在圖像識別檢測領(lǐng)域的優(yōu)異性能,本文研究基于基于YOLOv5的口罩佩自動戴檢測方法。首先從網(wǎng)絡(luò)和真實生活中中尋找并采集不同場景人群口罩佩戴的圖片約500張并自建數(shù)據(jù)集
    的頭像 發(fā)表于 07-01 20:20 ?620次閱讀
    口罩佩戴<b class='flag-5'>檢測算法</b>

    人員跌倒識別檢測算法

    人員跌倒識別檢測算法是基于視頻的檢測方法,通過對目標(biāo)人體監(jiān)測,當(dāng)目標(biāo)人體出現(xiàn)突然倒地行為時,自動監(jiān)測并觸發(fā)報警。人員跌倒識別檢測算法基于計算
    的頭像 發(fā)表于 06-30 11:47 ?731次閱讀
    人員跌倒識別<b class='flag-5'>檢測算法</b>

    安全帽佩戴檢測算法

    安全帽佩戴監(jiān)控是鐵路工程施工人員安全管理中的重點和難點,它對檢測算法的準(zhǔn)確 率與檢測速度都有較高的要求。本文提出種基于神經(jīng)網(wǎng)絡(luò)架構(gòu)搜索的安全帽佩戴檢測算法 NAS-YOLO。該神經(jīng)網(wǎng)
    的頭像 發(fā)表于 06-26 22:22 ?695次閱讀
    安全帽佩戴<b class='flag-5'>檢測算法</b>