女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何基于深度學習模型訓練實現(xiàn)工件切割點位置預(yù)測

OpenCV學堂 ? 來源:OpenCV學堂 ? 2023-12-22 11:07 ? 次閱讀

前言

Hello大家好,今天給大家分享一下如何基于深度學習模型訓練實現(xiàn)工件切割點位置預(yù)測,主要是通過對YOLOv8姿態(tài)評估模型在自定義的數(shù)據(jù)集上訓練,生成一個工件切割分離點預(yù)測模型

01制作數(shù)據(jù)集

本人從網(wǎng)絡(luò)上隨便找到了個工業(yè)工件,然后寫代碼合成了一些數(shù)據(jù),總計數(shù)據(jù)有360張圖像、其中336張作為訓練集、24張作為驗證集。

其中YOLOv的數(shù)據(jù)格式如下:

b0d71af4-a00a-11ee-8b88-92fbcf53809c.png

解釋一下:

Class-index 表示對象類型索引,從0開始
后面的四個分別是對象的中心位置與寬高 xc、yc、width、height
Px1,py1表示第一個關(guān)鍵點坐標、p1v表示師傅可見,默認填2即可。

02模型訓練

跟訓練YOLOv8對象檢測模型類似,直接運行下面的命令行即可:

yolo train model=yolov8n-pose.pt data=mul_lines_dataset.yaml epochs=15 imgsz=640 batch=1

b0e2ed2a-a00a-11ee-8b88-92fbcf53809c.png

b0f2e3c4-a00a-11ee-8b88-92fbcf53809c.png

b103b3b6-a00a-11ee-8b88-92fbcf53809c.png

b1112ece-a00a-11ee-8b88-92fbcf53809c.png

03模型導(dǎo)出預(yù)測

訓練完成以后模型預(yù)測推理測試 使用下面的命令行:

yolo predict model=lines_pts_best.pt source=D:ird_testack12.png

導(dǎo)出模型為ONNX格式,使用下面命令行即可

yolo export model=lines_pts_best.pt format=onnx

b12d3092-a00a-11ee-8b88-92fbcf53809c.png

04部署推理

基于ONNX格式模型,采用ONNXRUNTIME推理結(jié)果如下

ORT相關(guān)的推理演示代碼如下:

defort_keypoint_demo():

#initializetheonnxruntimesessionbyloadingmodelinCUDAsupport
model_dir="lines_pts_best.onnx"
session=onnxruntime.InferenceSession(model_dir,providers=['CUDAExecutionProvider'])

#就改這里, 把RTSP的地址配到這邊就好啦,然后直接運行,其它任何地方都不準改!
#切記把 onnx文件放到跟這個python文件同一個文件夾中!
frame=cv.imread("D:/bird_test/back1/lines_002.png")
bgr=format_yolov8(frame)
fh,fw,fc=frame.shape

start=time.time()
image=cv.dnn.blobFromImage(bgr,1/255.0,(640,640),swapRB=True,crop=False)

#onnxruntimeinference
ort_inputs={session.get_inputs()[0].name:image}
res=session.run(None,ort_inputs)[0]

#matrixtransposefrom1x8x8400=>8400x8
out_prob=np.squeeze(res,0).T

result_kypts,confidences,boxes=wrap_detection(bgr,out_prob)
for(kpts,confidence,box)inzip(result_kypts,confidences,boxes):
cv.rectangle(frame,box,(0,0,255),2)
cv.rectangle(frame,(box[0],box[1]-20),(box[0]+box[2],box[1]),(0,255,255),-1)
cv.putText(frame,("%.2f"%confidence),(box[0],box[1]-10),cv.FONT_HERSHEY_SIMPLEX,.5,(0,0,0))
cx=kpts[0]
cy=kpts[1]
cv.circle(frame,(int(cx),int(cy)),3,(255,0,255),4,8,0)

cv.imshow("Find Key PointDemo",frame)
cv.waitKey(0)
cv.destroyAllWindows()


if__name__=="__main__":
ort_keypoint_demo()

審核編輯:湯梓紅

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3487

    瀏覽量

    49995
  • OpenCV
    +關(guān)注

    關(guān)注

    32

    文章

    642

    瀏覽量

    42442
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1223

    瀏覽量

    25278
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5554

    瀏覽量

    122487

原文標題:【YOLOv8新玩法】姿態(tài)評估尋找鏈接切割點

文章出處:【微信號:CVSCHOOL,微信公眾號:OpenCV學堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    如何才能高效地進行深度學習模型訓練

    分布式深度學習框架中,包括數(shù)據(jù)/模型切分、本地單機優(yōu)化算法訓練、通信機制、和數(shù)據(jù)/模型聚合等模塊。現(xiàn)有的算法一般采用隨機置亂切分的數(shù)據(jù)分配方
    的頭像 發(fā)表于 07-09 08:48 ?1.4w次閱讀
    如何才能高效地進行<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b><b class='flag-5'>訓練</b>?

    labview實現(xiàn)深度學習,還在用python?

    如何使用labview實現(xiàn)深度學習應(yīng)用。ok樣本ng樣本這些圖片的特征是:ok與ok,ng與ng之間都有差異,傳統(tǒng)的方法要實現(xiàn),就需要復(fù)雜的算法編程
    發(fā)表于 07-23 20:33

    深度學習預(yù)測和健康管理中的應(yīng)用

    深度學習預(yù)測和健康管理中的應(yīng)用綜述摘要深度學習預(yù)測和健康管理(PHM)引起了濃厚的興趣,因為
    發(fā)表于 07-12 06:46

    深度學習模型是如何創(chuàng)建的?

    具有深度學習模型的嵌入式系統(tǒng)應(yīng)用程序帶來了巨大的好處。深度學習嵌入式系統(tǒng)已經(jīng)改變了各個行業(yè)的企業(yè)和組織。
    發(fā)表于 10-27 06:34

    深度學習技術(shù)的開發(fā)與應(yīng)用

    時間安排大綱具體內(nèi)容實操案例三天關(guān)鍵1.強化學習的發(fā)展歷程2.馬爾可夫決策過程3.動態(tài)規(guī)劃4.無模型預(yù)測學習5.無模型控制
    發(fā)表于 04-21 14:57

    基于深度學習模型云目標檢測及ROS實現(xiàn)

    近年來,隨著深度學習在圖像視覺領(lǐng)域的發(fā)展,一類基于單純的深度學習模型云目標檢測方法被提出和應(yīng)
    的頭像 發(fā)表于 11-05 16:47 ?1.8w次閱讀

    基于預(yù)訓練模型和長短期記憶網(wǎng)絡(luò)的深度學習模型

    作為模型的初始化詞向量。但是,隨機詞向量存在不具備語乂和語法信息的缺點;預(yù)訓練詞向量存在¨一詞-乂”的缺點,無法為模型提供具備上下文依賴的詞向量。針對該問題,提岀了一種基于預(yù)訓練
    發(fā)表于 04-20 14:29 ?19次下載
    基于預(yù)<b class='flag-5'>訓練</b><b class='flag-5'>模型</b>和長短期記憶網(wǎng)絡(luò)的<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b>

    模型為什么是深度學習的未來?

    與傳統(tǒng)機器學習相比,深度學習是從數(shù)據(jù)中學習,而大模型則是通過使用大量的模型
    的頭像 發(fā)表于 02-16 11:32 ?2330次閱讀

    深度學習框架區(qū)分訓練還是推理嗎

    模型,以便將來能夠進行準確的預(yù)測。推理是指在訓練完成后,使用已經(jīng)訓練好的模型進行新的預(yù)測。然而,
    的頭像 發(fā)表于 08-17 16:03 ?1668次閱讀

    視覺深度學習遷移學習訓練框架Torchvision介紹

    Torchvision是基于Pytorch的視覺深度學習遷移學習訓練框架,當前支持的圖像分類、對象檢測、實例分割、語義分割、姿態(tài)評估模型的遷
    的頭像 發(fā)表于 09-22 09:49 ?1210次閱讀
    視覺<b class='flag-5'>深度</b><b class='flag-5'>學習</b>遷移<b class='flag-5'>學習</b><b class='flag-5'>訓練</b>框架Torchvision介紹

    深度學習如何訓練出好的模型

    算法工程、數(shù)據(jù)派THU深度學習在近年來得到了廣泛的應(yīng)用,從圖像識別、語音識別到自然語言處理等領(lǐng)域都有了卓越的表現(xiàn)。但是,要訓練出一個高效準確的深度
    的頭像 發(fā)表于 12-07 12:38 ?1437次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學習</b>如何<b class='flag-5'>訓練</b>出好的<b class='flag-5'>模型</b>

    如何基于深度學習模型訓練實現(xiàn)圓檢測與圓心位置預(yù)測

    Hello大家好,今天給大家分享一下如何基于深度學習模型訓練實現(xiàn)圓檢測與圓心位置
    的頭像 發(fā)表于 12-21 10:50 ?2763次閱讀
    如何基于<b class='flag-5'>深度</b><b class='flag-5'>學習</b><b class='flag-5'>模型</b><b class='flag-5'>訓練</b><b class='flag-5'>實現(xiàn)</b>圓檢測與圓心<b class='flag-5'>位置</b><b class='flag-5'>預(yù)測</b>

    深度學習模型訓練過程詳解

    深度學習模型訓練是一個復(fù)雜且關(guān)鍵的過程,它涉及大量的數(shù)據(jù)、計算資源和精心設(shè)計的算法。訓練一個深度
    的頭像 發(fā)表于 07-01 16:13 ?2425次閱讀

    深度學習的典型模型訓練過程

    深度學習作為人工智能領(lǐng)域的一個重要分支,近年來在圖像識別、語音識別、自然語言處理等多個領(lǐng)域取得了顯著進展。其核心在于通過構(gòu)建復(fù)雜的神經(jīng)網(wǎng)絡(luò)模型,從大規(guī)模數(shù)據(jù)中自動學習并提取特征,進而
    的頭像 發(fā)表于 07-03 16:06 ?2717次閱讀

    AI大模型深度學習的關(guān)系

    人類的學習過程,實現(xiàn)對復(fù)雜數(shù)據(jù)的學習和識別。AI大模型則是指模型的參數(shù)數(shù)量巨大,需要龐大的計算資源來進行
    的頭像 發(fā)表于 10-23 15:25 ?2691次閱讀