女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

YOLOv6在LabVIEW中的推理部署(含源碼)

王立奇 ? 2024-11-06 16:07 ? 次閱讀

??

前言

前面我們給大家介紹了使用OpenCV以及ONNX工具包實(shí)現(xiàn)yolov5在LabVIEW中的部署,有英偉達(dá)顯卡的朋友們可能已經(jīng)感受過使用cuda加速時(shí)yolov5的速度,今天主要和大家分享在LabVIEW中使用純TensoRT工具包快速部署并實(shí)現(xiàn)yolov5的物體識(shí)別, 本博客中使用的智能工具包可到主頁置頂博客[https://blog.csdn.net/virobotics/article/details/129304465]
中安裝
。若配置運(yùn)行過程中遇到困難,歡迎大家評(píng)論區(qū)留言,博主將盡力解決。

以下是YOLOv5的相關(guān)筆記總結(jié),希望對(duì)大家有所幫助。

【YOLOv5】LabVIEW+OpenVINO讓你的YOLOv5在CPU上飛起來https://blog.csdn.net/virobotics/article/details/124951862
【YOLOv5】LabVIEW OpenCV dnn快速實(shí)現(xiàn)實(shí)時(shí)物體識(shí)別(Object Detection)https://blog.csdn.net/virobotics/article/details/124929483
【YOLOv5】手把手教你使用LabVIEW ONNX Runtime部署 TensorRT加速,實(shí)現(xiàn)YOLOv5實(shí)時(shí)物體識(shí)別(含源碼)https://blog.csdn.net/virobotics/article/details/124981658

一、關(guān)于YOLOv5

YOLOv5是在 COCO 數(shù)據(jù)集上預(yù)訓(xùn)練的一系列對(duì)象檢測(cè)架構(gòu)和模型。表現(xiàn)要優(yōu)于谷歌開源的目標(biāo)檢測(cè)框架 EfficientDet,在檢測(cè)精度和速度上相比yolov4都有較大的提高。本博客,我們以YOLOv5 6.1版本來介紹相關(guān)的部署開發(fā)。

在這里插入圖片描述
YOLOv5相比于前面yolo模型的主要特點(diǎn)是:
1、小目標(biāo)的檢測(cè)精度上有明顯的提高;
2、能自適應(yīng)錨框計(jì)算
3、具有數(shù)據(jù)增強(qiáng)功能,隨機(jī)縮放,裁剪,拼接等功能
4、靈活性極高、速度超快,模型超小、在模型的快速部署上具有極強(qiáng)優(yōu)勢(shì)

關(guān)于YOLOv5的網(wǎng)絡(luò)結(jié)構(gòu)解釋網(wǎng)上有很多,這里就不再贅述了,大家可以看其他大神對(duì)于YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)的解析。

二、YOLOv5模型的獲取

為方便使用, 博主已經(jīng)將yolov5模型轉(zhuǎn)化為onnx格式 ,可在百度網(wǎng)盤下載
鏈接:[https://pan.baidu.com/s/15dwoBM4W-5_nlRj4G9EhRg?pwd=yiku]
提取碼:yiku

1.下載源碼

將Ultralytics開源的YOLOv5代碼Clone或下載到本地,可以直接點(diǎn)擊Download ZIP進(jìn)行下載,

下載地址:[https://github.com/ultralytics/yolov5]
在這里插入圖片描述

2.安裝模塊

解壓剛剛下載的zip文件,然后安裝yolov5需要的模塊,記住cmd的工作路徑要在yolov5文件夾下:
在這里插入圖片描述
打開cmd切換路徑到y(tǒng)olov5文件夾下,并輸入如下指令,安裝yolov5需要的模塊

pip install -r requirements.txt

3.下載預(yù)訓(xùn)練模型

打開cmd,進(jìn)入python環(huán)境,使用如下指令下載預(yù)訓(xùn)練模型:

import torch

# Model
model = torch.hub.load('ultralytics/yolov5', 'yolov5s')  # or yolov5n - yolov5x6, custom

成功下載后如下圖所示:
在這里插入圖片描述

4.轉(zhuǎn)換為onnx模型

將.pt文件轉(zhuǎn)化為.onnx文件,在cmd中輸入轉(zhuǎn)onnx的命令(記得將export.py和pt模型放在同一路徑下):

python export.py --weights yolov5s.pt --include onnx

如下圖所示為轉(zhuǎn)化成功界面
在這里插入圖片描述
其中yolov5s可替換為yolov5myolov5myolov5lyolov5x
在這里插入圖片描述

三、LabVIEW+TensorRT的yolov5部署實(shí)戰(zhàn)(yolov5_trt_img.vi)

如需要查看TensorRT工具包相關(guān)vi含義,可查看:[https://blog.csdn.net/virobotics/article/details/129492651]

1.onnx轉(zhuǎn)化為engine(onnx to engine.vi)

使用onnx_to_engine.vi,將該vi拖拽至前面板空白區(qū)域,創(chuàng)建并輸入onnx的路徑以及engine的路徑,type即精度,可選擇FP32或FP16,肉眼觀看精度無大差別。(一般FP16模型比FP32速度快一倍)
在這里插入圖片描述
轉(zhuǎn)換的完整程序如下:
在這里插入圖片描述

點(diǎn)擊運(yùn)行,等待1~3分鐘,模型轉(zhuǎn)換成功,可在剛剛設(shè)定的路徑中找到我們轉(zhuǎn)化好的mobilenet.engine.

Q:為什么要轉(zhuǎn)換模型,不直接調(diào)用ONNX?> A:tensorRT內(nèi)部加載ONNX后其實(shí)是做了一個(gè)轉(zhuǎn)換模型的工作,該過程時(shí)間長、占用內(nèi)存巨大。因此不推薦每次初始化都加載ONNX模型,而是加載engine。

2.部署

模型初始化

  1. 加載yolov5s.engine文件
  2. 設(shè)置輸入輸出緩存
    ? 輸入大小為13640640
    ? 輸出大小為1
    25200*85
    在這里插入圖片描述

yolov5的預(yù)處理

  1. LetterBox
  2. blobFromImage,包含如下步驟:
1) img=img/255.0
2) img = img[None] #從(640,640,3)擴(kuò)充維度至(1,640,640,3)
3) input=img.transpose(0,3,1,2) # BHWC to BCHW

1.png

在這里插入圖片描述

模型推理

  1. 推薦使用數(shù)據(jù)指針作為輸入給到run.vi
  2. 數(shù)據(jù)的大小為13640*640
    在這里插入圖片描述

獲取推理結(jié)果

  1. 循環(huán)外初始化一個(gè)25200*85的二維數(shù)組
  2. 此數(shù)組作為Get_Result的輸入,另一個(gè)輸入為index=0
  3. 輸出為25200*85的二維數(shù)組結(jié)果

在這里插入圖片描述

后處理

本范例中,后處理方式和使用onnx一樣

在這里插入圖片描述

完整源碼

在這里插入圖片描述

運(yùn)行結(jié)果

1.png

項(xiàng)目源碼

源碼下載鏈接:https://pan.baidu.com/s/1y0scJ8tg5nzjJK4iPvNwNQ?pwd=yiku

附加說明

  • 操作系統(tǒng):Windows10
  • python:3.6及以上
  • LabVIEW:2018及以上 64位版本
  • 視覺工具包:techforce_lib_opencv_cpu-1.0.0.98.vip
  • LabVIEW TensorRT工具包:virobotics_lib_tensorrt-1.0.0.22.vip
  • 運(yùn)行結(jié)果所用顯卡:RTX3060

審核編輯 黃宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • LabVIEW
    +關(guān)注

    關(guān)注

    1995

    文章

    3670

    瀏覽量

    333032
  • 機(jī)器視覺
    +關(guān)注

    關(guān)注

    163

    文章

    4508

    瀏覽量

    122212
  • 目標(biāo)檢測(cè)
    +關(guān)注

    關(guān)注

    0

    文章

    222

    瀏覽量

    15894
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5554

    瀏覽量

    122467
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    K230上部署yolov5時(shí) 出現(xiàn)the array is too big的原因?

    重現(xiàn)步驟 1將yolov5的kmodel放入k230的data數(shù)據(jù) 2使用yolo大作戰(zhàn)里的視頻流推理代碼 3運(yùn)行 期待結(jié)果和實(shí)際結(jié)果 期待的結(jié)果 將目標(biāo)檢測(cè)的框圈起來 實(shí)際看到的結(jié)果
    發(fā)表于 05-28 07:47

    labview調(diào)用yolov8/11目標(biāo)檢測(cè)、分割、分類

    labview使用2020版本64位編輯,調(diào)用yolov8/11的onnx模型案例。 源碼: 通過網(wǎng)盤分享的文件:Labview_cls.zip等4個(gè)文件 鏈接: https
    發(fā)表于 04-21 19:37

    RK3576 yolov11-seg訓(xùn)練部署教程

    yolov11-seg 是YOLO(You Only Look Once)系列的最新成員,專為實(shí)時(shí)實(shí)例分割任務(wù)設(shè)計(jì)。它在保持YOLO家族高效推理速度的同時(shí),通過創(chuàng)新的網(wǎng)絡(luò)結(jié)構(gòu)和分割頭設(shè)計(jì),實(shí)現(xiàn)了像素
    的頭像 發(fā)表于 04-16 09:43 ?475次閱讀
    RK3576 <b class='flag-5'>yolov</b>11-seg訓(xùn)練<b class='flag-5'>部署</b>教程

    OrinNano yolov11訓(xùn)練部署教程

    ORinNano yolov11訓(xùn)練部署教程
    的頭像 發(fā)表于 04-10 15:26 ?496次閱讀
    OrinNano  <b class='flag-5'>yolov</b>11訓(xùn)練<b class='flag-5'>部署</b>教程

    RK3576 yolov8訓(xùn)練部署教程

    本章展示yolov8模型的EASY EAI Orin nano的部署過程。
    的頭像 發(fā)表于 04-02 16:04 ?325次閱讀
    RK3576 <b class='flag-5'>yolov</b>8訓(xùn)練<b class='flag-5'>部署</b>教程

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類、obb

    labview調(diào)用yolo目標(biāo)檢測(cè)、分割、分類、obb、pose深度學(xué)習(xí),支持CPU和GPU推理,32/64位labview均可使用。 (yolov5~
    發(fā)表于 03-31 16:28

    【幸狐Omni3576邊緣計(jì)算套件試用體驗(yàn)】RKNN 推理測(cè)試與圖像識(shí)別

    Python API 開發(fā)板上進(jìn)行部署。 環(huán)境搭建 本節(jié)介紹了 RKNN 推理測(cè)試的開發(fā)環(huán)境搭建流程,包括 Ubuntu 系統(tǒng)、Conda 環(huán)境部署等。 Ubuntu 22.04
    發(fā)表于 03-20 16:14

    YOLOv5類rgb888p_size這個(gè)參數(shù)要與模型推理和訓(xùn)練的尺寸一致嗎?一致會(huì)達(dá)到更好的效果?

    YOLOv5類rgb888p_size這個(gè)參數(shù)要與模型推理和訓(xùn)練的尺寸一致嗎,一致會(huì)達(dá)到更好的效果
    發(fā)表于 03-11 08:12

    yolov5轉(zhuǎn)onnxcubeAI進(jìn)行部署,部署失敗的原因?

    第一個(gè)我是轉(zhuǎn)onnx時(shí) 想把權(quán)重文件變小點(diǎn) 就用了半精度 --half,則說17版本不支持半精度 后面則是沒有縮小的單精度 但是顯示哪里溢出了···· 也不說是哪里、、。。。 到底能不能部署yolov5這種東西啊?? 也沒看見幾個(gè)部署
    發(fā)表于 03-07 11:38

    如何開啟Stable Diffusion WebUI模型推理部署

    如何開啟Stable Diffusion WebUI模型推理部署
    的頭像 發(fā)表于 12-11 20:13 ?451次閱讀
    如何開啟Stable Diffusion WebUI模型<b class='flag-5'>推理</b><b class='flag-5'>部署</b>

    樹莓派上部署YOLOv5進(jìn)行動(dòng)物目標(biāo)檢測(cè)的完整流程

    目標(biāo)檢測(cè)計(jì)算機(jī)視覺領(lǐng)域中具有重要意義。YOLOv5(You Only Look One-level)是目標(biāo)檢測(cè)算法的一種代表性方法,以其高效性和準(zhǔn)確性備受關(guān)注,并且各種目標(biāo)檢測(cè)任
    的頭像 發(fā)表于 11-11 10:38 ?3264次閱讀
    <b class='flag-5'>在</b>樹莓派上<b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>5進(jìn)行動(dòng)物目標(biāo)檢測(cè)的完整流程

    手冊(cè)上新 |迅為RK3568開發(fā)板NPU例程測(cè)試

    yolov5目標(biāo)檢測(cè) 6.13 yolov5-seg語義分割 6.14 yolov6目標(biāo)檢測(cè) 6.15 yolov7目標(biāo)檢測(cè) 6.16 yolov
    發(fā)表于 10-23 14:06

    手冊(cè)上新 |迅為RK3568開發(fā)板NPU例程測(cè)試

    yolov5目標(biāo)檢測(cè) 6.13 yolov5-seg語義分割 6.14 yolov6目標(biāo)檢測(cè) 6.15 yolov7目標(biāo)檢測(cè) 6.16 yolov
    發(fā)表于 08-12 11:03

    用OpenVINO C# APIintel平臺(tái)部署YOLOv10目標(biāo)檢測(cè)模型

    的模型設(shè)計(jì)策略,從效率和精度兩個(gè)角度對(duì)YOLOs的各個(gè)組成部分進(jìn)行了全面優(yōu)化,大大降低了計(jì)算開銷,增強(qiáng)了性能。本文中,我們將結(jié)合OpenVINO C# API使用最新發(fā)布的OpenVINO 2024.1部署YOLOv10目標(biāo)檢
    的頭像 發(fā)表于 06-21 09:23 ?1766次閱讀
    用OpenVINO C# API<b class='flag-5'>在</b>intel平臺(tái)<b class='flag-5'>部署</b><b class='flag-5'>YOLOv</b>10目標(biāo)檢測(cè)模型

    labview實(shí)例源碼之控壓取樣系統(tǒng)

    labview源碼,包含報(bào)表、曲線、通訊等
    發(fā)表于 06-06 11:23 ?1次下載