女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

RK3576 Yolov11訓練部署教程

EASY EAI靈眸科技 ? 來源:EASY EAI靈眸科技 ? 2025-04-03 09:35 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1. Yolo11簡介

YOLO11 系列是 YOLO 家族中最先進的 (SOTA)、最輕量級、最高效的模型,其表現優于其前輩。它由 Ultralytics 創建,該組織發布了 YOLOv8,這是迄今為止最穩定、使用最廣泛的 YOLO 變體。YOLO11 將延續 YOLO 系列的傳奇。

教程針對目標檢測算法yolo11的訓練和部署到EASY-EAI-Orin-nano(RK3576)進行說明,而數據標注方法可以參考我們往期的文章。

5e4f495a-0eae-11f0-9310-92fbcf53809c.png

2. Yolo11模型訓練

Yolov11訓練代碼在導出部分對比原版會有一些修改,建議下載我們的訓練代碼。

2.1 數據集準備

在開始yolo11訓練前,先準備好待訓練數據,如VOC2007,下載鏈接:

http://host.robots.ox.ac.uk/pascal/VOC/voc2007/index.html

然后將VOC2007數據分成訓練集和測試集兩個目錄,如下圖示意:

5e66d0e8-0eae-11f0-9310-92fbcf53809c.png

2.2 Voc轉Yolo

數據準備好后,使用data/voc_2_yolo.py腳本將Voc數據格式轉成Yolo數據格式。轉換完成后的數據存儲在原數據同級目錄的yolo_data下,如下圖示意:

5e8151f2-0eae-11f0-9310-92fbcf53809c.png

2.3 訓練參數配置

數據轉換完成后,在配置模型的訓練參數:data.yaml,default.yaml,yolo11.yaml.

5e9ceab6-0eae-11f0-9310-92fbcf53809c.png

其中:

data.yaml:為待訓練數據和驗證數據的路徑,以及類別數和類別名稱;

default.yaml:為yolo11訓練參數,可自行調整模型訓練的參數;

Yolo11.yaml:為yolo11模型結構,在模型訓練時,你需要修改類別數。

更多關于yolo11信息可參考:

https://blog.csdn.net/qq_45972324/article/details/143892222

2.4 模型訓練

完成上述步驟后,就可以開始訓練模型了,打開train.py腳本,輸入data.yaml,default.yaml,yolo11.yaml路徑,如下代碼段所示:

fromultralyticsimportYOLO
importos


os.environ["KMP_DUPLICATE_LIB_OK"] ="TRUE"# 程序報OMP: Hint This means...錯誤時使用


if__name__ =='__main__':
  cfg ="./demo/voc2007/cfg/default.yaml"
  data ='./demo/voc2007/cfg/data.yaml'
  weight ="./demo/voc2007/cfg/yolo11.yaml"# pt 或 yolovx.yaml
  model = YOLO(weight)


  results = model.train(
    data=data,
    cfg=cfg
  )

執行train.py訓練腳本,開始模型訓練,如下示意圖:

pythontrain.py
5eac6a40-0eae-11f0-9310-92fbcf53809c.png

注意:訓練過程僅是為了演示流程,接下來模型預測和模型轉換的都是yolov11默認的80類的模型。

2.5 PC端預測模型預測

訓練完畢后,在default.yaml文件配置的project目錄下保存訓練過程,經驗證集測試的最好結果的模型。同時可以執行模型預測,初步評估模型的效果。打開predict.py腳本,配置好模型地址和待檢測圖片,如下代碼段所示:

if__name__ =='__main__':
  random.seed(0)
  device_ ="cpu"
  imgsz = (640,640)
  model_path ="./demo/weights/yolo11s.pt"
  img_path ="./demo/images/bus.jpg"
  is_dir = os.path.isdir(img_path)
  device = select_device(device_)
  model = YOLO(model_path)
 # 圖片預處理
 ifis_dir:
    filenames = os.listdir(img_path)
   foridx, fileinenumerate(filenames):
      img_file = os.path.join(img_path, file)
      im = cv2.imread(img_file) # uint8 numpy array
      pre_img, ratio, padding = preprocess(im, device, imgsz)
     # 模型預測
     # pred = model.predict(pre_img, augment=False)[0]
     # im = draw_result(im, pred, ratio, padding)
      pred = model.predict(im, augment=False)[0]
      im = draw_result(im, pred)
      cv2.imshow("dst", im)
      cv2.waitKey()
 else:
    im = cv2.imread(img_path) # uint8 numpy array
    pre_img, ratio, padding = preprocess(im, device, imgsz)
   # 模型預測
   # pred = model.predict(pre_img, augment=False)[0]
   # im = draw_result(im, pred, ratio, padding)
    pred = model.predict(im, augment=False)[0]
    im = draw_result(im, pred)
    cv2.imshow("dst", im)
    cv2.waitKey()

執行腳本:

pythonpredict.py

運行腳本結果:

2.6 PT模型轉ONNX

在PC端執行export.py將pt模型轉成onnx,如下代碼段所示:

from ultralytics import YOLO


if__name__ =='__main__':
  format ='rknn'#'torchscript','onnx','openvino','engine','coreml','saved_model','pb','tflite','edgetpu','tfjs','paddle','ncnn'
  weight ="./demo/weights/yolo11s.pt"# pt 或 yolovx.yaml
  model = YOLO(weight)
  results = model.export(format = format)

3. rknn-toolkit模型轉換

3.1 rknn-toolkit模型轉換環境搭建

onnx模型需要轉換為rknn模型才能在EASY-EAI-Orin-nano運行,所以需要先搭建rknn-toolkit模型轉換工具的環境。當然tensorflow、tensroflow lite、caffe、darknet等也是通過類似的方法進行模型轉換,只是本教程onnx為例。

3.1.1 概述

模型轉換環境搭建流程如下所示:

5f0d6412-0eae-11f0-9310-92fbcf53809c.png

3.1.2 下載模型轉換工具

為了保證模型轉換工具順利運行,請下載網盤里“06.AI算法開發/01.rknn-toolkit2模型轉換工具/rknn-toolkit2-v2.3.0/docker/rknn-toolkit2-v2.3.0-cp38-docker.tar.gz”。

3.1.3 把工具移到ubuntu20.04

把下載完成的docker鏡像移到我司的虛擬機ubuntu20.04的rknn-toolkit2目錄,如下圖所示:

5f242c06-0eae-11f0-9310-92fbcf53809c.png

3.1.4 運行模型轉換工具環境

在該目錄打開終端:

5f35e31a-0eae-11f0-9310-92fbcf53809c.png

執行以下指令加載模型轉換工具docker鏡像:

dockerload --input rknn-toolkit2-v2.3.0-cp38-docker.tar.gz

執行以下指令進入鏡像bash環境:

docker run-t-i--privileged-v/dev/bus/usb:/dev/bus/usb rknn-toolkit2:2.3.0-cp38/bin/bash

現象如下圖所示:

5f49fff8-0eae-11f0-9310-92fbcf53809c.png

輸入“python”加載python相關庫,嘗試加載rknn庫,如下圖環境測試成功:

5f5ed89c-0eae-11f0-9310-92fbcf53809c.png

至此,模型轉換工具環境搭建完成。

4. 模型轉換為RKNN

EASY EAI Orin-nano支持.rknn后綴的模型的評估及運行,對于常見的tensorflow、tensroflow lite、caffe、darknet、onnx和Pytorch模型都可以通過我們提供的 toolkit 工具將其轉換至 rknn 模型,而對于其他框架訓練出來的模型,也可以先將其轉至 onnx 模型再轉換為 rknn 模型。模型轉換操作流程如下圖所示:

5f738ae4-0eae-11f0-9310-92fbcf53809c.png

4.1 模型轉換Demo下載

把 yolov11_model_convert.tar.bz2和quant_dataset.zip解壓到虛擬機,如下圖所示:

5f8b610a-0eae-11f0-9310-92fbcf53809c.png

4.2 進入模型轉換工具docker環境

執行以下指令把工作區域映射進docker鏡像,其中/home/developer/rknn-toolkit2/model_convert為工作區域,/test為映射到docker鏡像,/dev/bus/usb:/dev/bus/usb為映射usb到docker鏡像:

docker run -t -i --privileged -v /dev/bus/usb:/dev/bus/usb -v /home/developer/rknn-toolkit2/model_convert:/test
rknn-toolkit2:2.3.0-cp38 /bin/bash

執行成功如下圖所示:

5fa6e88a-0eae-11f0-9310-92fbcf53809c.png

4.3 模型轉換操作說明

4.3.1 模型轉換Demo目錄結構

模型轉換測試Demo由yolov11_model_convert和quant_dataset組成。yolov11_model_convert存放軟件腳本,quant_dataset存放量化模型所需的數據。如下圖所示:

5fbcf6ca-0eae-11f0-9310-92fbcf53809c.png

Yolov11_model_convert文件夾存放以下內容,如下圖所示:

5fd71c12-0eae-11f0-9310-92fbcf53809c.png

4.3.2 生成量化圖片列表

在docker環境切換到模型轉換工作目錄:

cd/test/yolov11_model_convert

如下圖所示:

5fe69782-0eae-11f0-9310-92fbcf53809c.png

執行gen_list.py生成量化圖片列表:

pythongen_list.py

命令行現象如下圖所示:

5ff82b82-0eae-11f0-9310-92fbcf53809c.png

生成“量化圖片列表”如下文件夾所示:

6009725c-0eae-11f0-9310-92fbcf53809c.png

4.3.3 onnx模型轉換為rknn模型

rknn_convert.py腳本默認進行int8量化操作,腳本代碼清單如下所示:

importsys
fromrknn.apiimportRKNN


ONNX_MODEL ='yolov11s.onnx'
DATASET ='./pic_path.txt'
RKNN_MODEL ='./yolov11s_rk3576.rknn'
QUANTIZE_ON =True




if__name__ =='__main__':


 # Create RKNN object
  rknn = RKNN(verbose=False)


 # Pre-process config
 print('--> Config model')
  rknn.config(mean_values=[[0,0,0]], std_values=[
          [255,255,255]], target_platform='rk3576')
 print('done')


 # Load model
 print('--> Loading model')
  ret = rknn.load_onnx(model=ONNX_MODEL)
 ifret !=0:
   print('Load model failed!')
    exit(ret)
 print('done')


 # Build model
 print('--> Building model')
  ret = rknn.build(do_quantization=QUANTIZE_ON, dataset=DATASET)
 ifret !=0:
   print('Build model failed!')
    exit(ret)
 print('done')


 # Export rknn model
 print('--> Export rknn model')
  ret = rknn.export_rknn(RKNN_MODEL)
 ifret !=0:
   print('Export rknn model failed!')
    exit(ret)
 print('done')


 # Release
  rknn.release()

把onnx模型yolov11s.onnx放到yolov11_model_convert目錄(后續用戶使用自己的模型的時候,替換掉對應的onnx即可),并執行rknn_convert.py腳本進行模型轉換:

pythonrknn_convert.py

生成模型如下圖所示,此模型可以在rknn環境和EASY EAI Orin-nano環境運行:

60236766-0eae-11f0-9310-92fbcf53809c.png

5. 模型部署示例

5.1 模型部署示例介紹

本小節展示yolo11模型的在EASY EAI Orin-nano的部署過程,本章章節使用的yolo11s.rknn模型的是由Ultralytics 官方提供的yolo11s.pt轉換而來。

5.2 源碼下載以及例程編譯

下載yolo11 C Demo示例文件。

下載程序包移至ubuntu環境后,執行以下指令解壓:

tar-xvf yolov11_detect_C_demo.tar.bz2

下載解壓后如下圖所示:

604284fc-0eae-11f0-9310-92fbcf53809c.png

通過adb接口連接EASY-EAI-Orin-nano,,連接方式如下圖所示:

605a5866-0eae-11f0-9310-92fbcf53809c.png

接下來需要通過adb把源碼傳輸到板卡上,先切換目錄然后執行以下指令:

cd~/rknn-toolkit2
adb push yolov11_detect_C_demo/ /userdata
608317f6-0eae-11f0-9310-92fbcf53809c.png

登錄到板子切換到例程目錄執行編譯操作:

adb shell
cd/userdata/yolov11_detect_C_demo
chmod777 build.sh
./build.sh
609bb702-0eae-11f0-9310-92fbcf53809c.png

5.3 開發板執行yolov11目標檢測算法

編譯成功后切換到可執行程序目錄,如下所示:

cd/userdata/yolov11_detect_C_demo/yolov11_detect_demo_release

運行例程命令如下所示:

chmod777 yolov11_detect_demo
./yolov11_detect_demo yolov11s_rk3576.rknn bus.jpg

執行結果如下圖所示,yolov11s算法執行時間為47ms:

60b56b66-0eae-11f0-9310-92fbcf53809c.png

退出板卡環境,取回測試圖片:

exit
adb pull /userdata/yolov11_detect_C_demo/yolov11_detect_demo_release/results.jpg .

至此,yolov11目標檢測例程已成功在板卡運行。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 算法
    +關注

    關注

    23

    文章

    4705

    瀏覽量

    95087
  • 模型
    +關注

    關注

    1

    文章

    3504

    瀏覽量

    50202
  • 代碼
    +關注

    關注

    30

    文章

    4894

    瀏覽量

    70449
  • 目標檢測
    +關注

    關注

    0

    文章

    223

    瀏覽量

    15958
  • rk3576
    +關注

    關注

    1

    文章

    162

    瀏覽量

    652

原文標題:RK3576 Yolov11訓練部署教程

文章出處:【微信號:easy-eai-AIoT,微信公眾號:EASY EAI靈眸科技】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    基于RK3576開發板的PWN使用說明

    RK3576開發板使用PWN教程及Demo
    的頭像 發表于 05-07 14:07 ?1229次閱讀
    基于<b class='flag-5'>RK3576</b>開發板的PWN使用說明

    基于RK3576開發板的RTC使用說明

    文章主要展示RK3576開發板的RTC信息和快速上手例程
    的頭像 發表于 05-07 15:04 ?738次閱讀
    基于<b class='flag-5'>RK3576</b>開發板的RTC使用說明

    基于RK3576開發板的人臉識別算法

    RK3576開發板展示人臉識別算法例程和API說明
    的頭像 發表于 05-07 16:48 ?1886次閱讀
    基于<b class='flag-5'>RK3576</b>開發板的人臉識別算法

    米爾RK3576RK3588怎么選?-看這篇就夠了

    在中國半導體產業的版圖中,瑞芯微作為國內SoC芯片領跑者,憑借其在處理器芯片設計領域的深厚積累和持續創新,推出很多智能應用處理器芯片,在嵌入式系統領域得到大規模的應用。RK3588和RK3576系列
    發表于 12-27 11:44

    【米爾RK3576開發板評測】+項目名稱YOLOV5目標檢測

    ../model/yolov5s_relu.onnx rk3576 i8 ../model/yolov5s_relu.rknn 四、PC端運行程序 cd Projects/rknn_model_zoo
    發表于 02-15 13:24

    【米爾RK3576開發板評測】+項目名稱百度飛槳PP-YOLOE

    /ppyoloe_s.onnx rk3576 i8 ../model/ppyoloe_s.rknn 3.3、程序編譯,將轉換后RKNN模型,編譯成為RK3576能夠運行的文件。 bash ./build-linux.sh -t
    發表于 02-15 17:14

    RK3576 vs RK3588:為何越來越多的開發者轉向RK3576

    瑞芯微(Rockchip)最新發布的 RK3576 一經推出,就吸引了大量原本關注 RK3588 的開發者。RK3588 作為旗艦級芯片,性能固然強大,但 RK3576 憑借其超高的能
    發表于 05-30 08:46

    Mpp支持RK3576

    想問下,https://github.com/rockchip-linux/mpp這里面支持RK3576么,看介紹沒有提到說支持RK3576 目前是買了個rk3576的機頂盒,搭載了安卓14,想做安卓視頻硬解。
    發表于 06-13 15:35

    新品體驗 | RK3576開發板

    前言:RK3576作為瑞芯微第二代8nm高性能AIOT平臺,一經推出便獲得了極大的關注。廣州眺望電子科技有限公司是一家專注于嵌入式處理器模組研發與應用的國家高新技術企業,目前公司已推出的相關型號有
    的頭像 發表于 11-01 08:08 ?1857次閱讀
    新品體驗 | <b class='flag-5'>RK3576</b>開發板

    RK3576單板發布倒計時:RK3399與RK3576對比

    好多人說RK3576RK3399的升級版,某種程度上也可以這么說,RK3576在強大的多媒體功能的基礎上,性能和接口都進行了升級 一、工藝 性能 rk3576采用 Rockchip
    的頭像 發表于 12-03 16:59 ?1176次閱讀
    <b class='flag-5'>RK3576</b>單板發布倒計時:<b class='flag-5'>RK</b>3399與<b class='flag-5'>RK3576</b>對比

    RK3588與RK3576區別解析

    以下是RK3576RK3588對比: 電魚電子SBC-RK3576單板 核心性能:RK3576為四核[email protected] + 四核[email protected] + M0協處理器,算力 58K
    的頭像 發表于 12-17 14:03 ?1660次閱讀
    <b class='flag-5'>RK</b>3588與<b class='flag-5'>RK3576</b>區別解析

    想學人工智能AI?我建議RK3576

    RK3576擁有強大的計算性能,輕松應對深度學習、圖像處理等高負載任務! 高效能低功耗:無論是訓練模型還是推理應用,都能保持高效穩定,續航更持久! 豐富接口:支持多種外設連接,滿足你的多樣化開發需求! 性價比超高:相比同類產品,RK3
    的頭像 發表于 02-25 07:44 ?652次閱讀
    想學人工智能AI?我建議<b class='flag-5'>RK3576</b>!

    RK3576 yolov8訓練部署教程

    本章展示yolov8模型的在EASY EAI Orin nano的部署過程。
    的頭像 發表于 04-02 16:04 ?391次閱讀
    <b class='flag-5'>RK3576</b> <b class='flag-5'>yolov</b>8<b class='flag-5'>訓練</b><b class='flag-5'>部署</b>教程

    OrinNano yolov11訓練部署教程

    ORinNano yolov11訓練部署教程
    的頭像 發表于 04-10 15:26 ?680次閱讀
    OrinNano  <b class='flag-5'>yolov11</b><b class='flag-5'>訓練</b><b class='flag-5'>部署</b>教程

    RK3576 yolov11-seg訓練部署教程

    級的精確目標檢測與分割,適用于自動駕駛、醫學影像、工業檢測等對精度和速度要求苛刻的場景。 ? ? ? ?本教程針對目標分割算法yolov11 seg的訓練部署到EASY-EAI-Orin-nano(
    的頭像 發表于 04-16 09:43 ?652次閱讀
    <b class='flag-5'>RK3576</b> <b class='flag-5'>yolov11</b>-seg<b class='flag-5'>訓練</b><b class='flag-5'>部署</b>教程