女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

V853端側(cè)部署YOLOV5訓(xùn)練自定義模型全流程教程

百問科技 ? 來源:百問科技 ? 2023-06-30 16:07 ? 次閱讀

這里以百問網(wǎng)開發(fā)板為檢測(cè)目標(biāo),下面展示端側(cè)檢測(cè)效果

68639c56-1712-11ee-962d-dac502259ad0.png

68d29dd6-1712-11ee-962d-dac502259ad0.png

69164b76-1712-11ee-962d-dac502259ad0.png

下面操作僅演示如何去訓(xùn)練自定義模型、導(dǎo)出模型、轉(zhuǎn)換模型、模型部署。注意:訓(xùn)練模型對(duì)于電腦需要有一定的要求,如果電腦性能較弱可能會(huì)導(dǎo)致訓(xùn)練效果較差,從而導(dǎo)致模型精度較低。

參考鏈接:

https://docs.ultralytics.com/yolov5/tutorials/train_custom_data/

1.下載數(shù)據(jù)標(biāo)注工具

數(shù)據(jù)標(biāo)注工具:https://github.com/heartexlabs/labelImg/releases

69696888-1712-11ee-962d-dac502259ad0.png

點(diǎn)擊上述紅框下載,下載完成后解壓壓縮包,雙擊打開labelImg.exe文件。

6991c01c-1712-11ee-962d-dac502259ad0.png

打開后等待運(yùn)行,運(yùn)行完成后會(huì)進(jìn)入如下標(biāo)注工作界面。

69a31cd6-1712-11ee-962d-dac502259ad0.png

關(guān)于LabelImg更多的使用方法,請(qǐng)?jiān)L問:https://github.com/heartexlabs/labelImg

由于LabelImg會(huì)預(yù)先提供一些類供您使用,需要手動(dòng)刪除這些類,使得您可以標(biāo)注自己的數(shù)據(jù)集。步驟如下所示:

69b9bdb0-1712-11ee-962d-dac502259ad0.gif

進(jìn)入LabelImg程序目錄中的data目錄中,打開predefined_classes.txt文件,刪除文件中所有預(yù)定義的類后保存并退出即可。

2.創(chuàng)建數(shù)據(jù)集目錄

在任意工作目錄中創(chuàng)建images文件夾和labels文件夾分別存放圖像數(shù)據(jù)集和標(biāo)注信息。這里我演示僅使用少量圖像樣本進(jìn)行標(biāo)注,在實(shí)際項(xiàng)目中需要采集足夠的圖像進(jìn)行標(biāo)注才拿滿足模型的準(zhǔn)確率和精度。

例如我在100ask-yolov5-image目錄中創(chuàng)建有images文件夾和labels文件夾,如下所示,創(chuàng)建images文件,存放圖像數(shù)據(jù)集,創(chuàng)建labels文件夾,該文件夾用于后續(xù)存放標(biāo)注數(shù)據(jù)。

6a45eed4-1712-11ee-962d-dac502259ad0.gif

3.標(biāo)注圖像

打開LabelImg軟件后,使用軟件打開數(shù)據(jù)集圖像文件夾,如下所示:

6a9fe65a-1712-11ee-962d-dac502259ad0.gif

打開后,修改輸出label的文件夾為我們創(chuàng)建的數(shù)據(jù)集目錄下的labels文件夾

6ae1c6c4-1712-11ee-962d-dac502259ad0.gif

下面我演示標(biāo)注過程,以百問網(wǎng)的開發(fā)板為例,標(biāo)注三塊開發(fā)板


標(biāo)注過程見原文鏈接

當(dāng)你點(diǎn)擊Save后即表示標(biāo)注完成,標(biāo)注完成后后會(huì)在labels目錄下生成classes.txt(類別)和圖像中標(biāo)注的類別即位置信息。

下面為LabelImg快捷鍵目錄

Ctrl + u Load all of the images from a directory
Ctrl + r Change the default annotation target dir
Ctrl + s Save
Ctrl + d Copy the current label and rect box
Ctrl + Shift + d Delete the current image
Space Flag the current image as verified
w Create a rect box
d Next image
a Previous image
del Delete the selected rect box
Ctrl++ Zoom in

經(jīng)過標(biāo)注大量的圖像后,labels文件夾如下圖所示

6b36f342-1712-11ee-962d-dac502259ad0.gif

4.劃分訓(xùn)練集和驗(yàn)證集

在模型訓(xùn)練中,需要有訓(xùn)練集和驗(yàn)證集。可以簡單理解為網(wǎng)絡(luò)使用訓(xùn)練集去訓(xùn)練,訓(xùn)練出來的網(wǎng)絡(luò)使用驗(yàn)證集驗(yàn)證。在總數(shù)據(jù)集中訓(xùn)練集通常應(yīng)占80%,驗(yàn)證集應(yīng)占20%。所以將我們標(biāo)注的數(shù)據(jù)集按比例進(jìn)行分配。

在yolov5-6.0項(xiàng)目目錄下創(chuàng)建100ask文件夾(該文件夾名可自定義),在100ask文件夾中創(chuàng)建train文件夾(存放訓(xùn)練集)和創(chuàng)建val文件夾(存放驗(yàn)證集)

6bbd3baa-1712-11ee-962d-dac502259ad0.gif

在train文件夾中創(chuàng)建images文件夾和labels文件夾。其中images文件夾存放總數(shù)據(jù)集的80%的圖像文件,labels文件夾存放與images中的文件對(duì)應(yīng)的標(biāo)注文件。

6bdbfca2-1712-11ee-962d-dac502259ad0.gif

在val文件夾中創(chuàng)建images文件夾和labels文件夾。其中images文件夾存放總數(shù)據(jù)集的20%的圖像文件,labels文件夾存放與images中的文件對(duì)應(yīng)的標(biāo)注文件。

6bbd3baa-1712-11ee-962d-dac502259ad0.gif

5.創(chuàng)建數(shù)據(jù)集配置文件

進(jìn)入yolov5-6.0data目錄下,創(chuàng)建data.yaml,文件內(nèi)容如下所示:

train: 100ask	rainimages  # train images 
val: 100askvalimages  # val images

nc: 3  # number of classes
names: ['T113', 'K510', 'V853']  # class names

6cb46358-1712-11ee-962d-dac502259ad0.gif

6.創(chuàng)建模型配置文件

進(jìn)入models目錄下,拷貝yolov5s.yaml文件,粘貼并models目錄下重命名為100ask_my-model.yaml,例如:

6cdfa6e4-1712-11ee-962d-dac502259ad0.gif

修改100ask_my-model.yaml中類的數(shù)目為自己訓(xùn)練模型的類數(shù)目。

6.修改訓(xùn)練函數(shù)

打開yolov5-6.0項(xiàng)目文件夾中的train.py,修改數(shù)據(jù)配置文件路徑,如下圖紅框所示:

parser.add_argument('--cfg', type=str, default='models/100ask_my-model.yaml', help='model.yaml path')
parser.add_argument('--data', type=str, default=ROOT / 'data/data.yaml', help='dataset.yaml path')

7.訓(xùn)練模型

在conda終端的激活yolov5環(huán)境,激活后進(jìn)入yolov5-6.0項(xiàng)目文件夾。執(zhí)行python train.py,如下圖所示:

6d0d9536-1712-11ee-962d-dac502259ad0.png

程序默認(rèn)迭代300次,等待訓(xùn)練完成...

6d4145fc-1712-11ee-962d-dac502259ad0.png

訓(xùn)練完成后結(jié)果會(huì)保存在runs rain目錄下最新一次的訓(xùn)練結(jié)果,如上圖所示,此次訓(xùn)練的最好模型和最后訓(xùn)練的模型保存在以下目錄中

runs	rainexp7weights

8.驗(yàn)證模型

修改val.py函數(shù),修改如下

   parser.add_argument('--data', type=str, default=ROOT / 'data/data.yaml', help='dataset.yaml path')
   parser.add_argument('--weights', nargs='+', type=str, default=ROOT / 'runs/train/exp7/weights/best.pt', help='model.pt path(s)')

6d5e4fda-1712-11ee-962d-dac502259ad0.png

修改models文件夾下的yolo.py

class Model(nn.Module):
   def __init__(self, cfg='100ask_my-model.yaml', ch=3, nc=None, anchors=None):  # model, input channels, number of classes

6db76bc4-1712-11ee-962d-dac502259ad0.png

打開conda終端輸入python val.py

6dd4d470-1712-11ee-962d-dac502259ad0.png

執(zhí)行完成后的結(jié)果保存在runsvalexp文件下。

6df3fa30-1712-11ee-962d-dac502259ad0.gif

9.預(yù)測(cè)圖像

在data目錄中新建100ask-images文件夾存放待檢測(cè)的圖像和視頻文件。

修改detect.py函數(shù)中,模型的路徑與檢測(cè)圖像路徑。

parser.add_argument('--weights', nargs='+', type=str, default=ROOT / 'runs/train/exp7/weights/best.pt', help='model path(s)')
parser.add_argument('--source', type=str, default=ROOT / 'data/100ask-images', help='file/dir/URL/glob, 0 for webcam')

6f9c3014-1712-11ee-962d-dac502259ad0.png

檢測(cè)效果如下圖所示:

6fbf3e56-1712-11ee-962d-dac502259ad0.jpg

10.導(dǎo)出ONNX模型

修改export.py函數(shù)

parser.add_argument('--data', type=str, default=ROOT / 'data/data.yaml', help='dataset.yaml path')
parser.add_argument('--weights', type=str, default=ROOT / 'runs/train/exp7/weights/best.pt', help='weights path')

6fe7c75e-1712-11ee-962d-dac502259ad0.png

在conda終端輸入:

python export.py --include onnx --dynamic

7009ef82-1712-11ee-962d-dac502259ad0.png

導(dǎo)出的模型會(huì)與輸入的模型位于同一路徑下,假設(shè)我輸入的模型位于:runs rainexp7weights

70423dc4-1712-11ee-962d-dac502259ad0.png

11.簡化模型

簡化模型前需要用到onnxruntime依賴包,輸入以下命令安裝:

pip install onnxruntime==1.13.1 -i https://pypi.doubanio.com/simple/

簡化命令如下:

python -m onnxsim <輸入模型> <輸出模型> --input-shape <輸入圖像尺寸>

例如:

輸入模型路徑為runs/train/exp7/weights/best.onnx,輸出模型路徑為runs/train/exp7/weights/best-sim.onnx

輸入圖像尺寸固定為640x640。

python -m onnxsim runs/train/exp7/weights/best.onnx runs/train/exp7/weights/best-sim.onnx --input-shape 1,3,640,640

706219be-1712-11ee-962d-dac502259ad0.png

13.查看模型

訪問:https://netron.app/

7096218c-1712-11ee-962d-dac502259ad0.png

可以看到輸入已經(jīng)固定為640x640,可看到模型有 4 個(gè)輸出節(jié)點(diǎn),其中 ouput 節(jié)點(diǎn)為后處理解析后的節(jié)點(diǎn);在實(shí)際測(cè)試的過程中,發(fā)現(xiàn) NPU 量化操作后對(duì)后處理的運(yùn)算非常不友好,輸出數(shù)據(jù)偏差較大,所以我們可以將后處理部分放在 CPU 運(yùn)行;因此在導(dǎo)入模型時(shí)保留 350498646 三個(gè)后處理解析前的輸出節(jié)點(diǎn)即可。

14.驗(yàn)證模型

模型需要修改為簡化后的模型路徑。

新建文件夾存放固定的輸入圖像尺寸。假設(shè)上述中我設(shè)置輸入圖像尺寸為640x640,那么此時(shí)我在data目錄下新建100ask-images-640文件夾存放640x640的圖像作為待測(cè)數(shù)據(jù)。

修改detect.py函數(shù)

   parser.add_argument('--weights', nargs='+', type=str, default=ROOT / 'runs/train/exp7/weights/best-sim.onnx', help='model path(s)')
   parser.add_argument('--source', type=str, default=ROOT / 'data/100ask-images-640', help='file/dir/URL/glob, 0 for webcam')

70c439e6-1712-11ee-962d-dac502259ad0.png

在conda終端輸入:

python detect.py

70efce44-1712-11ee-962d-dac502259ad0.png

通過輸出信息可知:檢測(cè)結(jié)果存儲(chǔ)在runsdetectexp6

檢測(cè)結(jié)果如下:

711b4aba-1712-11ee-962d-dac502259ad0.png

15.轉(zhuǎn)換模型

15.1 創(chuàng)建工作目錄

將簡化后的best-sim.onnx模型傳入配置到NPU模型轉(zhuǎn)換工具的虛擬機(jī)中,創(chuàng)建模型工具目錄,包含模型文件,量化文件夾data(存放量化圖片),dataset.txt文件(存放量化圖片的路徑)。

buntu@ubuntu2004:~/100ask-yolov5-test$ tree
.
├── best-sim.onnx
├── data
│ └── test01.jpg
└── dataset.txt

1 directory, 5 files

工作目錄如下所示:

716a45b6-1712-11ee-962d-dac502259ad0.gif

15.2 導(dǎo)入模型

導(dǎo)入模型前需要知道我們要保留的輸出節(jié)點(diǎn),由之前查看到我們輸出的三個(gè)后處理節(jié)點(diǎn)為:350498646

pegasus import onnx --model best-sim.onnx --output-data best-sim.data --output-model best-sim.json --outputs "350 498 646"

導(dǎo)入生成兩個(gè)文件,分別是是 yolov5s-sim.datayolov5s-sim.json 文件,兩個(gè)文件是 YOLO V5 網(wǎng)絡(luò)對(duì)應(yīng)的芯原內(nèi)部格式表示文件,data 文件儲(chǔ)存權(quán)重,cfg 文件儲(chǔ)存模型。

7197d17a-1712-11ee-962d-dac502259ad0.gif

15.3 生成 YML 文件

YML 文件對(duì)網(wǎng)絡(luò)的輸入和輸出的超參數(shù)進(jìn)行描述以及配置,這些參數(shù)包括,輸入輸出 tensor 的形狀,歸一化系數(shù) (均值,零點(diǎn)),圖像格式,tensor 的輸出格式,后處理方式等等

pegasus generate inputmeta --model best-sim.json --input-meta-output best-sim_inputmeta.yml

72d80d48-1712-11ee-962d-dac502259ad0.gif

pegasus generate postprocess-file --model best-sim.json --postprocess-file-output best-sim_postprocess_file.yml

73064c3a-1712-11ee-962d-dac502259ad0.gif

修改 best-sim_inputmeta.yml 文件中的的 scale 參數(shù)為 0.0039216(1/255),目的是對(duì)輸入 tensor 進(jìn)行歸一化,和網(wǎng)絡(luò)進(jìn)行訓(xùn)練的時(shí)候是對(duì)應(yīng)的。

vi best-sim_inputmeta.yml

修改過程如下圖所示:

733edeec-1712-11ee-962d-dac502259ad0.gif

15.4 量化

生成量化表文件,使用非對(duì)稱量化,uint8,修改 --batch-size 參數(shù)為你的 dataset.txt 里提供的圖片數(shù)量。如果原始網(wǎng)絡(luò)使用固定的batch_size,請(qǐng)使用固定的batch_size,如果原始網(wǎng)絡(luò)使用可變batch_size,請(qǐng)將此參數(shù)設(shè)置為1。

pegasus quantize --model best-sim.json --model-data best-sim.data --batch-size 1 --device CPU --with-input-meta best-sim_inputmeta.yml --rebuild --model-quantize best-sim.quantize --quantizer asymmetric_affine --qtype uint8

73af32d2-1712-11ee-962d-dac502259ad0.gif

15.5 預(yù)推理

利用前文的量化表執(zhí)行預(yù)推理,得到推理 tensor

pegasus inference --model best-sim.json --model-data best-sim.data --batch-size 1 --dtype quantized --model-quantize best-sim.quantize --device CPU --with-input-meta best-sim_inputmeta.yml --postprocess-file best-sim_postprocess_file.yml

74108e42-1712-11ee-962d-dac502259ad0.gif

15.6 導(dǎo)出模板代碼與模型

輸出的模型可以在 ovxilb/100ask-best-sim_nbg_unify 文件夾中找到network_binary.nb模型文件。

pegasus export ovxlib --model best-sim.json --model-data best-sim.data --dtype quantized --model-quantize best-sim.quantize --batch-size 1 --save-fused-graph --target-ide-project 'linux64' --with-input-meta best-sim_inputmeta.yml --output-path ovxilb/100ask-best-sim/100ask-simprj --pack-nbg-unify --postprocess-file best-sim_postprocessmeta.yml --optimize "VIP9000PICO_PID0XEE" --viv-sdk ${VIV_SDK}

752adcba-1712-11ee-962d-dac502259ad0.gif

可以進(jìn)入下圖所示目錄中將network_binary.nb模型文件拷貝出來備用。

76474a5c-1712-11ee-962d-dac502259ad0.gif

16.端側(cè)部署

這里引用上一篇《100ASK-V853-PRO開發(fā)板支持yolov5模型部署》我們編寫的yolov5端側(cè)部署程序,這里進(jìn)入端側(cè)部署程序文件夾中拷貝一份新程序進(jìn)行修改。主要修改vnn_post_process.cpp程序。

16.1 修改draw_objects函數(shù)

修改draw_objects函數(shù)中的類名,這里我訓(xùn)練的模型的類別分別是T113、K510、V853

76b6058c-1712-11ee-962d-dac502259ad0.png

類別名稱需要yolov5-6.0項(xiàng)目data目錄下data.yaml對(duì)應(yīng)

76d7774e-1712-11ee-962d-dac502259ad0.png

16.2 修改generate_proposals函數(shù)

修改generate_proposals函數(shù)中的類類別數(shù)量為您類別數(shù)量。假設(shè)我訓(xùn)練的類別總共有T113、K510、V853,這3個(gè)類別,修改為3即可。

76efd8c0-1712-11ee-962d-dac502259ad0.png

修改后的文件如下所示:

771b7a7a-1712-11ee-962d-dac502259ad0.gif

16.3 編譯

 book@100ask:~/workspaces/tina-v853-open$ source build/envsetup.sh
 ...
 book@100ask:~/workspaces/tina-v853-open$ lunch
 ...1
 ...

進(jìn)入menuconfig,輸入

make menuconfig

進(jìn)入如下目錄中,選中yolov5-100ask配置,

> 100ask 
    > NPU
        <*> yolov5-100ask......................................... yolov5-100ask demo

778acf56-1712-11ee-962d-dac502259ad0.png

編譯并生成鏡像

 book@100ask:~/workspaces/tina-v853-open$ make
 ...
 book@100ask:~/workspaces/tina-v853-open$ pack

編譯完成后使用全志燒寫工具燒錄鏡像。

16.4 測(cè)試

主機(jī)端:

傳入640*640的圖像文件和network_binary.nb模型文件

book@100ask:~/workspaces/testImg$ adb push test-100ask.jpg /mnt/UDISK
test-100ask.jpg: 1 file pushed. 0.6 MB/s (51039 bytes in 0.078s)
book@100ask:~/workspaces/testImg$ adb push network_binary.nb /mnt/UDISK
network_binary.nb: 1 file pushed. 0.7 MB/s (7409024 bytes in 10.043s)

開發(fā)板端:

進(jìn)入/mnt/UDISK/目錄下

root@TinaLinux:/# cd /mnt/UDISK/
root@TinaLinux:/mnt/UDISK# ls
lost+found     network_binary.nb  overlay       test-100ask.jpg

運(yùn)行yolov5檢測(cè)程序

yolov5-100ask network_binary.nb test-100ask.jpg

77b54114-1712-11ee-962d-dac502259ad0.png

執(zhí)行完成后會(huì)在當(dāng)前目錄下生成輸出文件yolov5_out.jpg

root@TinaLinux:/mnt/UDISK# ls
lost+found     overlay       yolov5_out.jpg
network_binary.nb  test-100ask.jpg

主機(jī)端:

拉取開發(fā)板端的輸出圖像yolov5_out.jpg

book@100ask:~/workspaces/testImg$ adb pull /mnt/UDISK/yolov5_out.jpg ./
/mnt/UDISK/yolov5_out.jpg: 1 file pulled. 0.8 MB/s (98685 bytes in 0.116s)

17.檢測(cè)效果圖

77e00be2-1712-11ee-962d-dac502259ad0.png


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1092

    瀏覽量

    41011
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3483

    瀏覽量

    49975
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1222

    瀏覽量

    25273

原文標(biāo)題:V853端側(cè)部署YOLOV5訓(xùn)練自定義模型 全流程教程

文章出處:【微信號(hào):baiwenkeji,微信公眾號(hào):百問科技】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    基于YOLOv8實(shí)現(xiàn)自定義姿態(tài)評(píng)估模型訓(xùn)練

    Hello大家好,今天給大家分享一下如何基于YOLOv8姿態(tài)評(píng)估模型,實(shí)現(xiàn)在自定義數(shù)據(jù)集上,完成自定義姿態(tài)評(píng)估模型
    的頭像 發(fā)表于 12-25 11:29 ?3332次閱讀
    基于<b class='flag-5'>YOLOv</b>8實(shí)現(xiàn)<b class='flag-5'>自定義</b>姿態(tài)評(píng)估<b class='flag-5'>模型</b><b class='flag-5'>訓(xùn)練</b>

    maixcam部署yolov5s 自定義模型

    maixcam部署yolov5s 自定義模型 本博客將向你展示零基礎(chǔ)一步步的部署好自己的yolov5
    發(fā)表于 04-23 15:43

    請(qǐng)問如何在imx8mplus上部署和運(yùn)行YOLOv5訓(xùn)練模型

    我正在從事 imx8mplus yocto 項(xiàng)目。我已經(jīng)在自定義數(shù)據(jù)集上的 YOLOv5訓(xùn)練了對(duì)象檢測(cè)模型。它在 ubuntu 電腦上運(yùn)行良好。現(xiàn)在我想在我的 imx8mplus
    發(fā)表于 03-25 07:23

    怎樣使用PyTorch Hub去加載YOLOv5模型

    autoshape=False. 要加載具有隨機(jī)初始化權(quán)重的模型(從頭開始訓(xùn)練),請(qǐng)使用pretrained=False. 在這種情況下,您必須提供自己的訓(xùn)練腳本。或者,請(qǐng)參閱我們的 YOLO
    發(fā)表于 07-22 16:02

    V853 NPU 轉(zhuǎn)換部署 YOLO V5 模型

    模型V853 平臺(tái)的轉(zhuǎn)換與部署流程模型的準(zhǔn)備YOLO v5 目前開源于 Github,
    發(fā)表于 11-29 09:26

    V853 在 NPU 轉(zhuǎn)換 YOLO V3 模型

    V853開發(fā)板購買鏈接:KFB-V853_Allwinner的KFB-V853_KFB-V853[參數(shù) 價(jià)格 pdf 中文資料]_華秋商城NPU 轉(zhuǎn)換 YOLO
    發(fā)表于 12-19 10:36

    V853常用模型跑分?jǐn)?shù)據(jù)

    V853常用模型跑分?jǐn)?shù)據(jù)序號(hào)算法模型FPSBW(MB/s)1inception_v1(224x224)57.371443.312inception_
    發(fā)表于 12-23 09:28

    yolov5訓(xùn)練部署鏈路教程

    本教程針對(duì)目標(biāo)檢測(cè)算法yolov5訓(xùn)練部署到EASY-EAI-Nano(RV1126)進(jìn)行說明。
    的頭像 發(fā)表于 01-05 18:00 ?3636次閱讀
    <b class='flag-5'>yolov5</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>部署</b><b class='flag-5'>全</b>鏈路教程

    在C++中使用OpenVINO工具包部署YOLOv5模型

    下載并轉(zhuǎn)換YOLOv5預(yù)訓(xùn)練模型的詳細(xì)步驟,請(qǐng)參考:《基于OpenVINO?2022.2和蝰蛇峽谷優(yōu)化并部署YOLOv5
    的頭像 發(fā)表于 02-15 16:53 ?7466次閱讀

    使用旭日X3派的BPU部署Yolov5

    本次主要介紹在旭日x3的BPU中部署yolov5。首先在ubuntu20.04安裝yolov5,并運(yùn)行yolov5并使用pytoch的pt模型
    的頭像 發(fā)表于 04-26 14:20 ?1223次閱讀
    使用旭日X3派的BPU<b class='flag-5'>部署</b><b class='flag-5'>Yolov5</b>

    【教程】yolov5訓(xùn)練部署鏈路教程

    本教程針對(duì)目標(biāo)檢測(cè)算法yolov5訓(xùn)練部署到EASY-EAI-Nano(RV1126)進(jìn)行說明,而數(shù)據(jù)標(biāo)注方法可以參考我們往期的文章《Labelimg的安裝與使用》。
    的頭像 發(fā)表于 01-29 15:25 ?4083次閱讀
    【教程】<b class='flag-5'>yolov5</b><b class='flag-5'>訓(xùn)練</b><b class='flag-5'>部署</b><b class='flag-5'>全</b>鏈路教程

    v853參數(shù) v853v853s的差別 v853是什么封裝的

    v853參數(shù) v853v853s的差別 v853是什么封裝的?
    的頭像 發(fā)表于 08-21 17:33 ?5573次閱讀

    YOLOv5網(wǎng)絡(luò)結(jié)構(gòu)訓(xùn)練策略詳解

    前面已經(jīng)講過了Yolov5模型目標(biāo)檢測(cè)和分類模型訓(xùn)練流程,這一篇講解一下yolov5
    的頭像 發(fā)表于 09-11 11:15 ?2868次閱讀
    <b class='flag-5'>YOLOv5</b>網(wǎng)絡(luò)結(jié)構(gòu)<b class='flag-5'>訓(xùn)練</b>策略詳解

    基于YOLOv8的自定義醫(yī)學(xué)圖像分割

    YOLOv8是一種令人驚嘆的分割模型;它易于訓(xùn)練、測(cè)試和部署。在本教程中,我們將學(xué)習(xí)如何在自定義數(shù)據(jù)集上使用
    的頭像 發(fā)表于 12-20 10:51 ?1151次閱讀
    基于<b class='flag-5'>YOLOv</b>8的<b class='flag-5'>自定義</b>醫(yī)學(xué)圖像分割

    在樹莓派上部署YOLOv5進(jìn)行動(dòng)物目標(biāo)檢測(cè)的完整流程

    卓越的性能。本文將詳細(xì)介紹如何在性能更強(qiáng)的計(jì)算機(jī)上訓(xùn)練YOLOv5模型,并將訓(xùn)練好的模型部署到樹
    的頭像 發(fā)表于 11-11 10:38 ?3274次閱讀
    在樹莓派上<b class='flag-5'>部署</b><b class='flag-5'>YOLOv5</b>進(jìn)行動(dòng)物目標(biāo)檢測(cè)的完整<b class='flag-5'>流程</b>