女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

YOLOv6模型文件的輸入與輸出結(jié)構(gòu)

OpenCV學(xué)堂 ? 來源:OpenCV學(xué)堂 ? 2023-06-25 15:37 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

YOLOv6人臉檢測模型

YOLOv6上次(應(yīng)該是很久以前)發(fā)布了一個(gè)0.3.1版本,支持人臉檢測與五點(diǎn)landmark調(diào)用,后來我就下載,想使用一下,發(fā)現(xiàn)居然沒有文檔,也沒有例子。但是官方有個(gè)infer.py文件是可以調(diào)用的,說明這個(gè)模型文件應(yīng)該沒問題。下載打開模型文件的輸入與輸出結(jié)構(gòu)如下:

9294c64c-117e-11ee-962d-dac502259ad0.png

輸出格式8400x16,其中16的輸出表示為人臉框+landmark坐標(biāo)信息。xyxy, conf, cls, lmdks,前面四個(gè)是Box信息、后面是置信度與分類得分、最后是10個(gè)值五點(diǎn)XY坐標(biāo)

輸出解析順序

官方代碼與參考文檔給出的解析順序,xyxy, conf, cls, lmdks,這部分還有官方的參考文件:

https://github.com/meituan/YOLOv6/blob/yolov6-face/yolov6/core/inferer.py

92d37716-117e-11ee-962d-dac502259ad0.png

第110行就是這樣說明的,于是我按上述格式一通解析,結(jié)果讓我崩潰了,輸入圖像與解析結(jié)果如下:

92ed582a-117e-11ee-962d-dac502259ad0.png

這個(gè)時(shí)候我才明白為什么這個(gè)發(fā)布了這么久,網(wǎng)上居然一篇文章關(guān)于YOLOv6人臉檢測的文章都沒有,網(wǎng)上的文章很多都是YOLOv5跟YOLOv7的人臉+Landmark檢測,原因一切都是有原因的。 我debug一下,發(fā)現(xiàn)預(yù)測出來的16個(gè)值,只有最后兩個(gè)值的結(jié)果是小于或者等于1的,所以我當(dāng)時(shí)猜想16個(gè)順序應(yīng)該是:xyxy, lmdks, conf, cls,按照我猜測的順序我又改下代碼,然后直接運(yùn)行測試,奇跡出現(xiàn)了:

這張圖是AI生成的,如有雷同純屬巧合! 整個(gè)推理的流程跟YOLOv5、YOLOv6對象檢測一樣,就是后處理不同,所以附上后處理部分的代碼:

defwrap_detection(self,input_image,out_data):
confidences=[]
boxes=[]
kypts=[]
rows=out_data.shape[0]

image_width,image_height,_=input_image.shape

x_factor=image_width/640.0
y_factor=image_height/640.0

sd=np.zeros((5,2),dtype=np.float32)
sd[0:5]=(x_factor,y_factor)
sd=np.squeeze(sd.reshape((-1,1)),1)
#xyxy,lmdks,conf,cls,
forrinrange(rows):
row=out_data[r]
conf=row[14]
cls=row[15]
if(conf>0.25andcls>0.25):
confidences.append(conf)
x,y,w,h=row[0].item(),row[1].item(),row[2].item(),row[3].item()
left=int((x-0.5*w)*x_factor)
top=int((y-0.5*h)*y_factor)
width=int(w*x_factor)
height=int(h*y_factor)
box=np.array([left,top,width,height])
boxes.append(box)
kypts.append(np.multiply(row[4:14],sd))

indexes=cv.dnn.NMSBoxes(boxes,confidences,0.25,0.25)

result_confidences=[]
result_boxes=[]
result_kypts=[]

foriinindexes:
result_confidences.append(confidences[i])
result_boxes.append(boxes[i])
result_kypts.append(kypts[i])

returnresult_kypts,result_confidences,result_boxes

責(zé)任編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3519

    瀏覽量

    50411
  • 代碼
    +關(guān)注

    關(guān)注

    30

    文章

    4900

    瀏覽量

    70709
  • 人臉檢測
    +關(guān)注

    關(guān)注

    0

    文章

    86

    瀏覽量

    16848

原文標(biāo)題:YOLOv6 人臉Landmark檢測

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點(diǎn)推薦

    Yolov5算法解讀

    ,這幾個(gè)模型結(jié)構(gòu)基本一樣,不同的是depth_multiple模型深度和width_multiple模型寬度這兩個(gè)參數(shù)。 yolov5主要
    的頭像 發(fā)表于 05-17 16:38 ?1.3w次閱讀
    <b class='flag-5'>Yolov</b>5算法解讀

    YOLOV7網(wǎng)絡(luò)架構(gòu)解讀

    繼美團(tuán)發(fā)布YOLOV6之后,YOLO系列原作者也發(fā)布了YOLOV7。
    的頭像 發(fā)表于 11-29 10:00 ?2456次閱讀
    <b class='flag-5'>YOLOV</b>7網(wǎng)絡(luò)架構(gòu)解讀

    怎樣使用PyTorch Hub去加載YOLOv5模型

    圖像會自動傳輸?shù)秸_的模型設(shè)備。靜音輸出模型可以靜默加載_verbose=False:輸入通道要加載具有 4 個(gè)輸入通道而不是默認(rèn)的 3 個(gè)
    發(fā)表于 07-22 16:02

    YOLOv6中的用Channel-wise Distillation進(jìn)行的量化感知訓(xùn)練

    1、YOLOv6中的用Channel-wise Distillation進(jìn)行的量化感知訓(xùn)練來自哪里  知識蒸餾 (KD)已被證明是一種用于訓(xùn)練緊湊密集預(yù)測模型的簡單有效的工具。輕量級學(xué)生網(wǎng)絡(luò)通過
    發(fā)表于 10-09 16:25

    YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)解析

    1、YOLOv5 網(wǎng)絡(luò)結(jié)構(gòu)解析  YOLOv5針對不同大小(n, s, m, l, x)的網(wǎng)絡(luò)整體架構(gòu)都是一樣的,只不過會在每個(gè)子模塊中采用不同的深度和寬度,  分別應(yīng)對yaml文件
    發(fā)表于 10-31 16:30

    全志V853 在 NPU 轉(zhuǎn)換 YOLO V3 模型

    原內(nèi)部格式表示文件,分別對應(yīng)原始模型文件yolov3.weights 和 yolov3.cfg創(chuàng)建 YML
    發(fā)表于 12-19 10:36

    yolov7 onnx模型在NPU上太慢了怎么解決?

    yolov7tiny.onnx。輸入大小為 224x224,但 npu 推理時(shí)間為 127 毫秒。好像太慢了。這個(gè)時(shí)間合理嗎?以下是我的onnx模型轉(zhuǎn)換步驟和我的onnxruntime執(zhí)行代碼: 1. 從 https
    發(fā)表于 04-04 06:13

    YOLOv3的darknet模型先轉(zhuǎn)為caffe模型后再轉(zhuǎn)為fp32bmodel,模型輸出和原始模型輸出存在偏差是怎么回事?

    YOLOv3的darknet模型先轉(zhuǎn)為caffe模型后再轉(zhuǎn)為fp32bmodel,模型輸出和原始模型
    發(fā)表于 09-19 06:26

    一個(gè)YOLO系列的算法實(shí)現(xiàn)庫YOLOU

    這里主要是對于YOLO系列經(jīng)典化模型的訓(xùn)練對比,主要是對于YOLOv5、YOLOv6YOLOv7以及YOLOX的對比,部分模型還在訓(xùn)練之中
    的頭像 發(fā)表于 07-31 11:47 ?2090次閱讀

    關(guān)于YOLOU中模型的測試

    整個(gè)算法完全是以YOLOv5的框架進(jìn)行,主要包括的目標(biāo)檢測算法有:YOLOv3、YOLOv4、YOLOv5、YOLOv5-Lite、
    的頭像 發(fā)表于 08-16 10:24 ?1068次閱讀

    YOLOv8版本升級支持小目標(biāo)檢測與高分辨率圖像輸入

    YOLOv8版本最近版本又更新了,除了支持姿態(tài)評估以外,通過模型結(jié)構(gòu)的修改還支持了小目標(biāo)檢測與高分辨率圖像檢測。原始的YOLOv8模型
    的頭像 發(fā)表于 05-16 11:14 ?1.4w次閱讀
    <b class='flag-5'>YOLOv</b>8版本升級支持小目標(biāo)檢測與高分辨率圖像<b class='flag-5'>輸入</b>

    YOLOv6在LabVIEW中的推理部署(含源碼)

    YOLOv6 是美團(tuán)視覺智能部研發(fā)的一款目標(biāo)檢測框架,致力于工業(yè)應(yīng)用。如何使用python進(jìn)行該模型的部署,官網(wǎng)已經(jīng)介紹的很清楚了,但是對于如何在LabVIEW中實(shí)現(xiàn)該模型的部署,筆者目前還沒有看到
    的頭像 發(fā)表于 11-06 16:07 ?941次閱讀
    <b class='flag-5'>YOLOv6</b>在LabVIEW中的推理部署(含源碼)

    一文徹底搞懂YOLOv8【網(wǎng)絡(luò)結(jié)構(gòu)+代碼+實(shí)操】

    從上面可以看出,YOLOv8 主要參考了最近提出的諸如 YOLOX、YOLOv6YOLOv7 和 PPYOLOE 等算法的相關(guān)設(shè)計(jì),本身的創(chuàng)新點(diǎn)不多,偏向工程實(shí)踐,主推的還是 ultralytics 這個(gè)框架本身。
    的頭像 發(fā)表于 06-15 17:15 ?1.4w次閱讀
    一文徹底搞懂<b class='flag-5'>YOLOv</b>8【網(wǎng)絡(luò)<b class='flag-5'>結(jié)構(gòu)</b>+代碼+實(shí)操】

    YOLOv8+OpenCV實(shí)現(xiàn)DM碼定位檢測與解析

    YOLOv8是YOLO系列模型的最新王者,各種指標(biāo)全面超越現(xiàn)有對象檢測與實(shí)例分割模型,借鑒了YOLOv5、YOLOv6、YOLOX等
    的頭像 發(fā)表于 08-10 11:35 ?1722次閱讀
    <b class='flag-5'>YOLOv</b>8+OpenCV實(shí)現(xiàn)DM碼定位檢測與解析

    深度學(xué)習(xí)YOLOv3 模型設(shè)計(jì)的基本思想

    在檢測任務(wù)中,將圖中C0后面的平均池化、全連接層和Softmax去掉,保留從輸入到C0部分的網(wǎng)絡(luò)結(jié)構(gòu),作為檢測模型的基礎(chǔ)網(wǎng)絡(luò)結(jié)構(gòu),也稱為骨干網(wǎng)絡(luò)
    發(fā)表于 10-17 10:32 ?524次閱讀
    深度學(xué)習(xí)<b class='flag-5'>YOLOv</b>3 <b class='flag-5'>模型</b>設(shè)計(jì)的基本思想