1. Yolov8簡介
YOLOv8 是 ultralytics 公司在 2023 年 1月 10 號開源的基于YOLOV5進行更新的 下一個重大更新版本,目前支持圖像分類、物體檢測和實例分割任務,鑒于Yolov5的良好表現,Yolov8在還沒有開源時就收到了用戶的廣泛關注。其主要結構如下圖所示:
本教程針對目標檢測算法yolov8的訓練和部署到EASY-EAI-Nano(RV1126)進行說明,而數據標注方法可以參考我們往期的文章。
2. Yolov8目標檢測算法訓練
通過git工具,在PC端克隆遠程倉庫(注:此處可能會因網絡原因造成卡頓,請耐心等待),修改過算子后的yolov8倉庫: https://github.com/airockchip/ultralytics_yolov8
3. 轉換為rknn模型環境搭建
onnx模型需要轉換為rknn模型才能在EASY-EAI-Nano運行,所以需要先搭建rknn-toolkit模型轉換工具的環境。當然tensorflow、tensroflow lite、caffe、darknet等也是通過類似的方法進行模型轉換,只是本教程onnx為例。
3.1 概述
模型轉換環境搭建流程如下所示:
3.2 下載模型轉換工具
為了保證模型轉換工具順利運行,請下載網盤里”AI算法開發/RKNN-Toolkit模型轉換工具/rknn-toolkit-v1.7.3/docker/rknn-toolkit-1.7.3-docker.tar.gz”。
網盤下載鏈接:https://pan.baidu.com/s/1_PquxW2rFuf77q6mT3gkDQ 提取碼:6666
3.3 把工具移到電腦端ubuntu
把下載完成的docker鏡像移到我司的虛擬機ubuntu20.04的rknn-toolkit目錄,如下圖所示:
3.4 運行模型轉換工具環境
在該目錄打開終端:
執行以下指令加載模型轉換工具docker鏡像:
docker load --input /home/developer/rknn-toolkit/rknn-toolkit-1.7.3-docker.tar.gz
執行以下指令進入鏡像bash環境:
docker run -t -i --privileged -v /dev/bus/usb:/dev/bus/usb rknn-toolkit:1.7.3 /bin/bash
現象如下圖所示:
輸入“python”加載python相關庫,嘗試加載rknn庫,如下圖環境測試成功:
至此,模型轉換工具環境搭建完成。
4. 模型轉換為RKNN
EASY EAI Nano支持.rknn后綴的模型的評估及運行,對于常見的tensorflow、tensroflow lite、caffe、darknet、onnx和Pytorch模型都可以通過我們提供的 toolkit 工具將其轉換至 rknn 模型,而對于其他框架訓練出來的模型,也可以先將其轉至 onnx 模型再轉換為 rknn 模型。 模型轉換操作流程入下圖所示:
4.1 模型轉換Demo下載
下載百度網盤鏈接:https://pan.baidu.com/s/1HDYVFaZmHhi_lnr-KeGItw?pwd=1234 提取碼:1234。把 yolov8_model_convert.tar.bz2和quant_dataset.zip解壓到虛擬機,如下圖所示:
4.2 進入模型轉換工具docker環境
執行以下指令把工作區域映射進docker鏡像,其中/home/developer/rknn-toolkit/model_convert為工作區域,/test為映射到docker鏡像,/dev/bus/usb:/dev/bus/usb為映射usb到docker鏡像:
docker run -t -i --privileged -v /dev/bus/usb:/dev/bus/usb -v /home/developer/rknn-toolkit/model_convert:/test rknn-toolkit:1.7.3 /bin/bash
執行成功如下圖所示:
4.3 模型轉換操作說明
4.3.1 模型轉換Demo目錄結構
模型轉換測試Demo由yolov8_model_convert和quant_dataset組成。Yolov8_model_convert存放軟件腳本,quant_dataset存放量化模型所需的數據。如下圖所示:
Yolov8_model_convert文件夾存放以下內容,如下圖所示:
4.3.2 生成量化圖片列表
在docker環境切換到模型轉換工作目錄:
cd /test/yolov8_model_convert
如下圖所示:
執行gen_list.py生成量化圖片列表:
python gen_list.py
命令行現象如下圖所示:
生成“量化圖片列表”如下文件夾所示:
4.3.3 onnx模型轉換為rknn模型
rknn_convert.py腳本默認進行int8量化操作,腳本代碼清單如下所示:
import sys import os import urllib import traceback import time import sys import numpy as np import cv2 from rknn.api import RKNN ONNX_MODEL = 'yolov8m.onnx' RKNN_MODEL = './yolov8m_rv1126.rknn' DATASET = './pic_path.txt' QUANTIZE_ON = True PRECOMILE_ON = True if __name__ == '__main__': # Create RKNN object rknn = RKNN(verbose=True) if not os.path.exists(ONNX_MODEL): print('model not exist') exit(-1) # pre-process config print('--> Config model') rknn.config(reorder_channel='0 1 2', mean_values=[[0, 0, 0]], std_values=[[255, 255, 255]], optimization_level=3, target_platform = 'rv1126', output_optimize=1, quantize_input_node=QUANTIZE_ON) print('done') # Load ONNX model print('--> Loading model') ret = rknn.load_onnx(model=ONNX_MODEL) if ret != 0: print('Load yolov5 failed!') exit(ret) print('done') # Build model print('--> Building model') ret = rknn.build(pre_compile=PRECOMILE_ON, do_quantization=QUANTIZE_ON, dataset=DATASET) if ret != 0: print('Build yolov5 failed!') exit(ret) print('done') # Export RKNN model print('--> Export RKNN model') ret = rknn.export_rknn(RKNN_MODEL) if ret != 0: print('Export yolov5rknn failed!') exit(ret) print('done')
把onnx模型yolov8m_rv1126.onnx放到yolov8_model_convert目錄(后續用戶使用自己的模型的時候,替換掉對應的onnx即可),并執行rknn_convert.py腳本進行模型轉換:
python rknn_convert.py
生成模型如下圖所示,此模型可以在EASY EAI Nano環境運行:
5. 模型部署示例
5.1 模型部署示例介紹
本小節展示yolov8模型的在EASY EAI Nano的部署過程,該模型僅經過簡單訓練供示例使用,不保證模型精度。
5.2 開發環境準備
如果您初次閱讀此文檔,請閱讀《入門指南/開發環境準備/Easy-Eai編譯環境準備與更新》,并按照其相關的操作,進行編譯環境的部署。
在PC端Ubuntu系統中執行run腳本,進入EASY-EAI編譯環境,具體如下所示。
cd ~/develop_environment ./run.sh

5.3 源碼下載以及例程編譯
下載yolov8 C Demo示例文件。
百度網盤鏈接: (https://pan.baidu.com/s/1anV3qObQvHwVVj-55dSX0w?pwd=1234 提取碼:1234)。
下載程序包移至ubuntu環境后,執行以下指令解壓:
tar -xvf yolov8_detect_C_demo.tar.bz2
下載解壓后如下圖所示:
在EASY-EAI編譯環境下,切換到例程目錄執行編譯操作:
cd /opt/rknn-toolkit/yolov8_detect_C_demo ./build.sh
注:
* 由于依賴庫部署在板卡上,因此交叉編譯過程中必須保持adb連接。
5.4 在開發板執行yolov8目標檢測算法
在EASY-EAI編譯環境下,在例程目錄執行以下指令把可執行程序推送到開發板端:
cp yolov8_detect_demo_release/ /mnt/userdata/ -rf
通過按鍵Ctrl+Shift+T創建一個新窗口,執行adb shell命令,進入板卡運行環境:
adb shell

進入板卡后,定位到例程上傳的位置,如下所示:
cd /userdata/yolov8_detect_demo_release/
運行例程命令如下所示:
./yolov8_detect_demo yolov8m_rv1126.rknn test.jpg
執行結果如下圖所示,yolov8m算法執行時間為212ms:
更換yolov8s模型, 算法執行時間為123ms:
退出板卡環境,取回測試圖片:
exit adb pull /userdata/yolov8_detect_demo_release/result.jpg .
測試結果如下圖所示:
至此,yolov8目標檢測例程已成功在板卡運行。
6. 資料下載
資料名稱 | 鏈接 |
訓練代碼github | https://github.com/airockchip/ultralytics_yolov8 |
算法教程完整源碼包 |
https://pan.baidu.com/s/1aYXsgtEV9RUN-PzSmSAK4Q?pwd=1234 提取碼:1234 |
審核編輯 黃宇
-
開源
+關注
關注
3文章
3551瀏覽量
43356 -
開發板
+關注
關注
25文章
5444瀏覽量
101404 -
目標檢測
+關注
關注
0文章
221瀏覽量
15875 -
rv1126
+關注
關注
0文章
106瀏覽量
3301
發布評論請先 登錄
Qt部署在RV1126的arm-linux系統上使用QImage縮放,drawXXXX縮放無效怎么解決?
RV1126開發板數據手冊
【教程】yolov5訓練部署全鏈路教程

rv1126芯片參數介紹
YOLOv8實現任意目錄下命令行訓練

基于YOLOv8的自定義醫學圖像分割

評論