女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何訓練一個有效的eIQ基本分類模型

恩智浦MCU加油站 ? 來源:恩智浦MCU加油站 ? 2024-08-01 09:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

一、概述

eIQ Neutron神經(jīng)處理單元(NPU)是一種高度可擴展的加速器核心架構(gòu),提供ML加速。與傳統(tǒng)MCU Kinetis、LPC系列相比,MCX N系列首次集成了恩智浦 eIQ Neutron神經(jīng)處理單元(NPU),用于機器學習(ML)加速。相比單獨的CPU核,eIQ Neutron NPU能夠提供高達42倍的機器學習推理性能,MCX N94x每秒可以執(zhí)行4.8 G次運算,使其能夠高效地運行在 MCX CPU和eIQ Neutron NPU上。 eIQPortal它是一個直觀的圖形用戶界面(GUI),簡化了ML開發(fā)。開發(fā)人員可以創(chuàng)建、優(yōu)化、調(diào)試和導出ML模型,以及導入數(shù)據(jù)集和模型,快速訓練并部署神經(jīng)網(wǎng)絡模型和ML工作負載。

在本文中,我們將探討如何訓練一個有效的eIQ基本分類模型,并將其成功部署到MCX N947設備上。

硬件環(huán)境:

開發(fā)板FRDM-MCXN947

顯示屏3.5" TFT LCD(P/N PAR-LCD-S035)

攝像頭OV7670

軟件環(huán)境:

eIQ Portal:eIQ MLSoftware Development Environment | NXP Semiconductors

MCUXpressoIDE v11.9.0

Application Code Hub Demo: Label CIFAR10 image

二、基本模型分類訓練及部署

主要內(nèi)容分為三步:模型訓練、模型轉(zhuǎn)換和模型部署。

1.數(shù)據(jù)集準備

數(shù)據(jù)集為簡單演示apple、banana兩分類,訓練集、測試集比例為8:2,根據(jù)eIQ_Toolkit_UG.pdf提到的3.3.2 Structured folders dataset:

18397ed4-399f-11ef-a4c8-92fbcf53809c.png

文件夾結(jié)構(gòu)如下:

196ddb88-399f-11ef-a4c8-92fbcf53809c.png

注:數(shù)據(jù)集需按照以上文件夾格式設置

2. 創(chuàng)建工程及數(shù)據(jù)集導入eIQ

(1) 打開eIQ Portal工具,點擊create project->import dataset:

19977e52-399f-11ef-a4c8-92fbcf53809c.png

(2) 以StructuredFolders導入:

19afef0a-399f-11ef-a4c8-92fbcf53809c.png

(3) 點擊“IMPORT”后,選擇工程保存路徑,點擊“保存”:

19b4b0da-399f-11ef-a4c8-92fbcf53809c.png

3.選擇base models訓練

(1)數(shù)據(jù)集導入后,點擊select model,選擇base models,修改input size為128,128,3:

(2)點擊start training。注:其他參數(shù)根據(jù)需要進行設定即可,此處learning rate、batch size、epoch為默認值,此處為演示,訓練一輪,用戶可以根據(jù)需要訓練模型達到應用要求。訓練完成如下:

19d9d0ea-399f-11ef-a4c8-92fbcf53809c.png

如果精度一直不達標,可以通過修改各訓練參數(shù),或者更新訓練數(shù)據(jù),再次點擊CONTINUE TRAINING繼續(xù)進行訓練。

4.模型評估VALIDATE

(1) 點擊VALIDATE,進入模型評估,設置參數(shù)Softmax,input DataType和output Data Type,目前MCXN系列Neutron NPU只支持int8類型,選擇Softmax函數(shù)的閾值是一個需要綜合考慮多種因素的過程,應該根據(jù)具體的應用場景和性能目標來決定最合適的閾值,在實際操作中,需要通過多次實驗和調(diào)整來找到最佳的閾值:

19fdc5f4-399f-11ef-a4c8-92fbcf53809c.png

(2).設置完成后,點擊VALIDATE,等待生成混淆矩陣,通過混淆矩陣我們可以清晰看出不同類別的分類情況,圖中x軸是預測的標簽,y軸是實際的標簽,可以看到每一張圖片預測標簽和實際標簽的對應情況:

1a1a56ec-399f-11ef-a4c8-92fbcf53809c.png

5.模型導出TensorFlow Lite

(1) 點擊DEPLOY,設置Export file Type,input Data Type和output Data Type,打開Export Quantized Model,然后點擊Export Model:

1a2469d4-399f-11ef-a4c8-92fbcf53809c.png

(2).設置模型保存位置,點擊保存:

1a4a4ef6-399f-11ef-a4c8-92fbcf53809c.png

6.轉(zhuǎn)換TensorFlow Lite for Neutron (.tflite)

(1) 保存完成后,點擊open model,可以查看模型結(jié)構(gòu):

1a5b56b0-399f-11ef-a4c8-92fbcf53809c.png

(2) 點擊convert,選擇TensorFlow Lite for Neutron (.tflite):

1a8219b2-399f-11ef-a4c8-92fbcf53809c.png

(3) 選擇Neutron Target,點擊convert,設置保存路徑即可:

1a935628-399f-11ef-a4c8-92fbcf53809c.png

7.將模型部署到Label CIFAR10 image工程

此示例基于機器學習算法,由 MCXN947 提供支持, 它可以標記來自相機的圖像,并在LCD底部顯示物體的類型。

該模型在數(shù)據(jù)集CIFAR10上進行訓練,它支持 10 類圖像:

“飛機”、“汽車”、“鳥”、“貓”、“鹿”、“狗”、“青蛙”、“馬”、“船”、“卡車”。

(1) 打開MCUXpresso IDE,從Application Code Hub導入Label CIFAR10 image工程:

1ac5a6fa-399f-11ef-a4c8-92fbcf53809c.png

(2) 選擇工程,點擊GitHub Link->Next:

1ad30e44-399f-11ef-a4c8-92fbcf53809c.png

(3).設置保存路徑,Next->Next->Finish:

1ba11514-399f-11ef-a4c8-92fbcf53809c.png

(4).導入成功后,點擊“source”文件夾->model文件夾,打開model_data.s,將最后通過eiq轉(zhuǎn)換的模型文件復制到model文件下,在model_data.s修改導入模型的名稱(轉(zhuǎn)換模型的名稱):

1cf1abb8-399f-11ef-a4c8-92fbcf53809c.png

注:工程中導入的模型是經(jīng)過多次訓練得到的模型

(5) 點擊“source”文件夾->model文件夾->打開labers.h文件,修改labers[ ],標簽順序為eIQ中數(shù)據(jù)集顯示的順序 :

1cfc4aa0-399f-11ef-a4c8-92fbcf53809c.png

wKgZomaq5a2AAjD6AAC4UvwxT7A999.jpg

(6) 編譯工程,下載到開發(fā)板。

三、實驗結(jié)果

1d5207f6-399f-11ef-a4c8-92fbcf53809c.png

四、總結(jié)

對于希望在MCX N系列邊緣設備上實現(xiàn)高效機器學習應用的開發(fā)人員來說,掌握這些技術(shù)和工具是至關(guān)重要的。

通過高效利用eIQ Neutron NPU的強大性能和eIQ Portal的便捷工具,開發(fā)人員可以大大簡化從模型訓練到部署的整個過程。這不僅加速了機器學習應用的開發(fā)周期,還提升了應用的性能和可靠性。

作者:王浩 楊聰哲

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 處理器
    +關(guān)注

    關(guān)注

    68

    文章

    19890

    瀏覽量

    235128
  • mcu
    mcu
    +關(guān)注

    關(guān)注

    146

    文章

    17978

    瀏覽量

    366701
  • 恩智浦
    +關(guān)注

    關(guān)注

    14

    文章

    5980

    瀏覽量

    116600
  • 機器學習
    +關(guān)注

    關(guān)注

    66

    文章

    8502

    瀏覽量

    134592
  • NPU
    NPU
    +關(guān)注

    關(guān)注

    2

    文章

    328

    瀏覽量

    19743

原文標題:MCX N947:eIQ基本分類模型訓練及部署

文章出處:【微信號:NXP_SMART_HARDWARE,微信公眾號:恩智浦MCU加油站】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    pyhanlp文本分類與情感分析

    關(guān)系如下:訓練訓練指的是,利用給定訓練集尋找能描述這種語言現(xiàn)象的模型的過程。開發(fā)者只需調(diào)用t
    發(fā)表于 02-20 15:37

    NLPIR平臺在文本分類方面的技術(shù)解析

    本分類問題就是將篇文檔歸入預先定義的幾個類別中的或幾個,而文本的自動分類則是使用計算機程序來實現(xiàn)這種文
    發(fā)表于 11-18 17:46

    EIQ onnx模型轉(zhuǎn)換為tf-lite失敗怎么解決?

    我們正在嘗試將 tflite 框架與 npu 起使用來進行機器學習。這是我們的步驟:1)用pytorch訓練模型2) 以onnx格式導
    發(fā)表于 03-31 08:03

    如何使用eIQ門戶訓練人臉檢測模型

    我正在嘗試使用 eIQ 門戶訓練人臉檢測模型。我正在嘗試從 tensorflow 數(shù)據(jù)集 (tfds) 導入數(shù)據(jù)集,特別是 coco/2017 數(shù)據(jù)集。但是,我只想導入 wider_face。但是,當我嘗試這樣做時,會出現(xiàn)導入程
    發(fā)表于 04-06 08:45

    訓練機器學習模型,實現(xiàn)了根據(jù)基于文本分析預測葡萄酒質(zhì)量

    我們可以把上述的其他信息也引入作為特征參數(shù),這樣就能構(gòu)建出更全面的模型來預測葡萄酒質(zhì)量。為了將文字描述與其他特征結(jié)合起來進行預測,我們可以創(chuàng)建
    的頭像 發(fā)表于 05-16 18:27 ?6457次閱讀

    結(jié)合BERT模型的中文文本分類算法

    層面的特征向量表示,并將獲得的特征冋量輸λ Softmax回歸模型進行訓練分類。實驗結(jié)果表明,隨著搜狐新聞文本數(shù)據(jù)量的增加,該算法在測試集上的整體F1值最高達到93%,相比基于 Textcnn
    發(fā)表于 03-11 16:10 ?6次下載
    結(jié)合BERT<b class='flag-5'>模型</b>的中文文<b class='flag-5'>本分類</b>算法

    種基于BERT模型的社交電商文本分類算法

    種基于BERT模型的社交電商文本分類算法。首先,該算法采用BERT( Bidirectional Encoder Representations from Transformers)預訓練語言
    發(fā)表于 04-13 15:14 ?8次下載
    <b class='flag-5'>一</b>種基于BERT<b class='flag-5'>模型</b>的社交電商文<b class='flag-5'>本分類</b>算法

    融合文本分類和摘要的多任務學習摘要模型

    文本摘要應包含源文本中所有重要信息,傳統(tǒng)基于編碼器-解碼器架構(gòu)的摘要模型生成的摘要準確性較低。根據(jù)文本分類和文本摘要的相關(guān)性,提出種多任務學習摘要模型。從文
    發(fā)表于 04-27 16:18 ?11次下載
    融合文<b class='flag-5'>本分類</b>和摘要的多任務學習摘要<b class='flag-5'>模型</b>

    基于雙通道詞向量的卷積膠囊網(wǎng)絡文本分類算法

    的詞向量與基于特定文本分類任務擴展的語境詞向量作為神經(jīng)網(wǎng)絡的2輸入通道,并采用具有動態(tài)路由機制的卷積膠囊網(wǎng)絡模型進行文本分類。在多個英文數(shù)據(jù)集上的實驗結(jié)果表明,雙通道的詞向量
    發(fā)表于 05-24 15:07 ?6次下載

    基于LSTM的表示學習-文本分類模型

    的關(guān)鍵。為了獲得妤的文本表示,提高文本分類性能,構(gòu)建了基于LSTM的表示學習-文本分類模型,其中表示學習模型利用語言模型為文
    發(fā)表于 06-15 16:17 ?18次下載

    基于注意力機制的新聞文本分類模型

    基于注意力機制的新聞文本分類模型
    發(fā)表于 06-27 15:32 ?30次下載

    PyTorch教程4.3之基本分類模型

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程4.3之基本分類模型.pdf》資料免費下載
    發(fā)表于 06-05 15:43 ?0次下載
    PyTorch教程4.3之基<b class='flag-5'>本分類</b><b class='flag-5'>模型</b>

    NLP中的遷移學習:利用預訓練模型進行文本分類

    遷移學習徹底改變了自然語言處理(NLP)領(lǐng)域,允許從業(yè)者利用預先訓練模型來完成自己的任務,從而大大減少了訓練時間和計算資源。在本文中,我們將討論遷移學習的概念,探索些流行的預
    發(fā)表于 06-14 09:30 ?576次閱讀

    利用TensorFlow實現(xiàn)基于深度神經(jīng)網(wǎng)絡的文本分類模型

    要利用TensorFlow實現(xiàn)基于深度神經(jīng)網(wǎng)絡(DNN)的文本分類模型,我們首先需要明確幾個關(guān)鍵步驟:數(shù)據(jù)預處理、模型構(gòu)建、
    的頭像 發(fā)表于 07-12 16:39 ?1516次閱讀

    恩智浦eIQ Time Series Studio工具使用教程之模型訓練

    大家好,eIQ Time SeriesStudio又和大家見面啦!本章為大家?guī)砉ぞ吆诵牟糠?模型訓練
    的頭像 發(fā)表于 03-25 15:25 ?941次閱讀
    恩智浦<b class='flag-5'>eIQ</b> Time Series Studio工具使用教程之<b class='flag-5'>模型</b><b class='flag-5'>訓練</b>