女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

高通AI Hub:輕松實(shí)現(xiàn)Android圖像分類

大大通 ? 2024-11-26 01:03 ? 次閱讀

上一篇博文“Qualcomm AI Hub介紹”。高通AI Hub為開發(fā)者提供了一個(gè)強(qiáng)大的平臺(tái),以優(yōu)化、驗(yàn)證和部署在Android設(shè)備上的機(jī)器學(xué)習(xí)模型。這篇文章將介紹如何使用高通AI Hub進(jìn)行圖像分類的程式碼開發(fā),并提供一個(gè)實(shí)際的例子來展示其在Android平臺(tái)上的應(yīng)用。

程式碼介紹

高通AI Hub支持多種機(jī)器學(xué)習(xí)框架,如TensorFlow Lite、Quancomm AI Engine Direct和ONNX Runtime,并能夠?qū)⒂?xùn)練好的模型轉(zhuǎn)換為優(yōu)化的on-device執(zhí)行格式。開發(fā)者可以通過AI Hub的模型庫,選擇適合自己應(yīng)用需求的模型,并進(jìn)行相應(yīng)的優(yōu)化。此外,AI Hub還提供了詳細(xì)的on-device性能分析工具,幫助開發(fā)者了解模型在實(shí)際設(shè)備上的運(yùn)行情況。

于官方提供的Github ai-hub-apps進(jìn)行下載,使用Android Studio開啟app/android,就可以看到ImageClassification、SemanticSegmentation及SuperResolution,本篇博文介紹ImageClassification程式碼的部分及執(zhí)行,使用Android Studio開啟專案畫面如下圖:

wKgaomdFfweABGA5AAOeSe1BmGg453.png


ImageProcessing.java

里面有一個(gè)靜態(tài)方法 resizeAndPadMaintainAspectRatio,其功能是調(diào)整圖片大小,同時(shí)維持圖片的寬高比(Aspect Ratio)。如果圖片無法完全符合給定的輸出尺寸,則會(huì)加入填充區(qū)域(padding),使得最終輸出的圖片符合要求的寬度和高度。

TFLiteHelpers.java:

TensorFlow Lite (TFLite) 的輔助工具,用于為 TensorFlow Lite 模型建立解譯器(interpreter)和相應(yīng)的硬件加速委派(delegate),例如 GPU 或 NPU。主要功能是根據(jù)指定的硬件加速選項(xiàng),自動(dòng)嘗試為 TFLite 模型分配不同的硬件委派來優(yōu)化推論性能。

CreateInterpreterAndDelegatesFromOptions

用于根據(jù)指定的優(yōu)先級(jí)順序,創(chuàng)建 TFLite 解譯器并分配硬件加速委派。它會(huì)根據(jù)委派的優(yōu)先順序來嘗試分配不同的委派類型,如 GPU 或 NPU,并在無法使用時(shí)降級(jí)至 CPU 運(yùn)算(例如使用 XNNPack 提供的 CPU 加速)。

CreateInterpreterFromDelegates

此函式實(shí)際上是根據(jù)之前創(chuàng)建的委派來生成解譯器。主要負(fù)責(zé)配置 TFLite 解譯器的參數(shù),例如 CPU 線程數(shù)和是否使用 XNNPack 作為后備計(jì)算選項(xiàng)。若解譯器創(chuàng)建失敗,則會(huì)記錄失敗原因并返回 null。

CreateDelegate

此函式根據(jù)指定的委派類型(如 GPUv2 或 QNN_NPU)創(chuàng)建對(duì)應(yīng)的硬件委派。每一個(gè)委派都有對(duì)應(yīng)的函式進(jìn)行初始化,例如 CreateGPUv2Delegate 或 CreateQNN_NPUDelegate。

CreateGPUv2Delegate

這個(gè)函式負(fù)責(zé)創(chuàng)建和配置 GPUv2 委派,它會(huì)將 GPU 設(shè)定為最大性能模式,允許使用浮點(diǎn)精度 FP16 進(jìn)行計(jì)算,來提升 GPU 運(yùn)行效率。

CreateQNN_NPUDelegate

此函式負(fù)責(zé)為支持 Qualcomm NPU 的裝置創(chuàng)建 QNN 委派,根據(jù)裝置支持的硬件類型來選擇使用 DSP 或 HTP 來加速推論計(jì)算。

ImageClassification.java:

基于 TensorFlow Lite 的影像分類器,用來從給定的影像中推測(cè)出最有可能的物件類別。主要的功能包括模型的加載、預(yù)處理影像、推論以及后處理推論結(jié)果,并且能夠返回處理時(shí)間等性能資訊。

ImageClassification

功能:從指定的模型和標(biāo)簽路徑中創(chuàng)建影像分類器。

參數(shù):

context:應(yīng)用程式的上下文。

modelPath:模型文件的路徑。

labelsPath:標(biāo)簽文件的路徑。

delegatePriorityOrder:指定計(jì)算單元優(yōu)先順序(例如 GPU、CPU 等)。

preprocess

功能:將輸入的影像預(yù)處理為模型可以接受的格式。

步驟:

檢查影像尺寸是否符合模型的輸入要求,必要時(shí)進(jìn)行縮放。

根據(jù)模型的數(shù)據(jù)類型(如 FLOAT32 或 UINT8)轉(zhuǎn)換影像數(shù)據(jù)。

postprocess

功能:將模型輸出的結(jié)果轉(zhuǎn)換為可讀取的標(biāo)簽(類別)。

步驟:

讀取模型的輸出。

根據(jù)預(yù)測(cè)值選出信心最高的幾個(gè)結(jié)果(TOP-K),并轉(zhuǎn)換為對(duì)應(yīng)的標(biāo)簽名稱。

predictClassesFromImage()

功能:對(duì)給定的影像進(jìn)行分類,返回最有可能的類別。

步驟:
進(jìn)行預(yù)處理(preprocess)。

使用解釋器進(jìn)行推論。

后處理輸出結(jié)果(postprocess)。

返回分類結(jié)果。

findTopKFloatIndices() 和 findTopKByteIndices()

功能:從模型輸出的數(shù)據(jù)中找出信心最高的 K 個(gè)結(jié)果,分別處理 float 和 byte 類型的輸出。

實(shí)現(xiàn):使用優(yōu)先佇列(PriorityQueue)來追蹤最大值,并返回這些最大值對(duì)應(yīng)的索引。

MainActivity.java:

使用 TensorFlow Lite 來進(jìn)行影像分類。它主要負(fù)責(zé)初始化 UI 元件、管理影像選擇與處理、并進(jìn)行模型推論。如果執(zhí)行時(shí)發(fā)生圖像讀取錯(cuò)誤問題,需要在loadImageFromStringAsync函式做調(diào)整:

// try (InputStream inputImage = getAssets().open("images/" + imagePath))

try (InputStream inputImage = getAssets().open( imagePath))

模型及App執(zhí)行

TFLite模型:

模型部分可以依據(jù)AI Hub提供的Image Classification選項(xiàng)的TFLite模型,下載自己所需的模型,并放置于ImageClassification/src/main/assets檔案夾底下,修改Android Studio內(nèi)的 gradle.properties,修改:classification_tfLiteModelAsset=xxxxxxx.tflite

程式運(yùn)作:

高通AI Hub提供的Android程式碼,除了在高通提供相關(guān)芯片的開發(fā)板上執(zhí)行,也可以在擁有高通芯片的手機(jī)上執(zhí)行,實(shí)機(jī)測(cè)試是使用小米11手機(jī)。

執(zhí)行結(jié)果如下方Gif動(dòng)畫,App最下方Image透過下拉式選單選擇內(nèi)建的三張圖片或相簿圖片,選擇完成后上方會(huì)出現(xiàn)選擇的圖片,按下RUN MODEL按鈕即可開始推論,當(dāng)然也可以選擇CPU Only體驗(yàn)一下沒有硬件加速的推論時(shí)間,而All Hardware則會(huì)使用QNN_NPU + GPUv2 + XNNPack等硬件加速。

wKgaomdFfwiAMYJTAHYriBtf1IA347.gif

小結(jié)

本篇博文就到這里,通過高通AI Hub Android開發(fā)者可以更輕松地將先進(jìn)的AI模型集成到他們的應(yīng)用中。高通AI Hub的文檔和模型庫提供了豐富的資源,幫助開發(fā)者探索和實(shí)現(xiàn)AI領(lǐng)域的應(yīng)用。

參考

ai-hub-apps

AI Hub Image Classification

Q&A

問:如何獲取高通AI Hub Model的ImageClassification模型?

答:您可以訪問高通AI Hub的GitHub頁面或官方網(wǎng)站,這里提供了模型的開源代碼和安裝指南。

問:部署模型時(shí)需要注意哪些性能和精度問題?

答:在部署模型時(shí),您需要考慮模型的延遲、記憶體使用等性能指標(biāo),以及模型在特定設(shè)備上的精度。高通AI Hub提供了性能指標(biāo)和優(yōu)化指南,幫助您選擇最適合您需求的模型。

問:如果在部署過程中遇到問題,該如何解決?

答:如果在模型部署過程中遇到性能、精度或其他問題,您可以通過高通AI Hub的支持Slack 提交問題。此外,您也可以參考官方文檔中的疑難解答部分。

問:高通AI Hub Model可以在哪些設(shè)備上運(yùn)行?

答:高通AI Hub Model支持在多種設(shè)備上運(yùn)行,包括但不限于Snapdragon 845, Snapdragon 855/855+, Snapdragon 865/865+, Snapdragon 888/888+等多款芯片組的設(shè)備。

登錄大大通網(wǎng)站閱讀原文,提問/評(píng)論,獲取技術(shù)文檔等更多資訊!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 高通
    +關(guān)注

    關(guān)注

    77

    文章

    7567

    瀏覽量

    192395
  • Android
    +關(guān)注

    關(guān)注

    12

    文章

    3960

    瀏覽量

    129367
  • 開發(fā)板
    +關(guān)注

    關(guān)注

    25

    文章

    5444

    瀏覽量

    101403
  • Qualcomm
    +關(guān)注

    關(guān)注

    8

    文章

    676

    瀏覽量

    53030
  • tensorflow
    +關(guān)注

    關(guān)注

    13

    文章

    330

    瀏覽量

    60978
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    Android Studio中的Gemini支持多模態(tài)輸入功能

    在開發(fā)生命周期的每個(gè)階段,Android Studio 中的 Gemini 都已成為您的 AI 助手,助您更輕松地構(gòu)建高質(zhì)量的應(yīng)用。我們很高興地與您分享一項(xiàng)重大升級(jí):Android S
    的頭像 發(fā)表于 05-14 16:44 ?178次閱讀

    在友晶LabCloud平臺(tái)上使用PipeCNN實(shí)現(xiàn)ImageNet圖像分類

    利用深度卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行圖像分類是通過使用多個(gè)卷積層來從輸入數(shù)據(jù)中提取特征,最后通過分類層做決策來識(shí)別出目標(biāo)物體。
    的頭像 發(fā)表于 04-23 09:42 ?197次閱讀
    在友晶LabCloud平臺(tái)上使用PipeCNN<b class='flag-5'>實(shí)現(xiàn)</b>ImageNet<b class='flag-5'>圖像</b><b class='flag-5'>分類</b>

    基于RV1126開發(fā)板實(shí)現(xiàn)自學(xué)習(xí)圖像分類方案

    在RV1126開發(fā)板上實(shí)現(xiàn)自學(xué)習(xí):在識(shí)別前對(duì)物體圖片進(jìn)行模型學(xué)習(xí),訓(xùn)練完成后通過算法分類得出圖像的模型ID。 方案設(shè)計(jì)邏輯流程圖,方案代碼分為分為兩個(gè)業(yè)務(wù)流程,主體代碼負(fù)責(zé)抓取、合成
    的頭像 發(fā)表于 04-21 13:37 ?11次閱讀
    基于RV1126開發(fā)板<b class='flag-5'>實(shí)現(xiàn)</b>自學(xué)習(xí)<b class='flag-5'>圖像</b><b class='flag-5'>分類</b>方案

    使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行圖像分類的步驟

    使用卷積神經(jīng)網(wǎng)絡(luò)(CNN)進(jìn)行圖像分類是一個(gè)涉及多個(gè)步驟的過程。 1. 問題定義 確定目標(biāo) :明確你想要分類圖像類型,例如貓和狗、不同的植物種類等。 數(shù)據(jù)需求 :確定需要多少數(shù)據(jù)以及
    的頭像 發(fā)表于 11-15 15:01 ?707次閱讀

    如何在Android上構(gòu)建自定義AI功能

    在 "AI on Android Spotlight Week" 期間,我們深入探討了如何將自己的 AI 模型引入 Android 設(shè)備,如手機(jī)、平板電腦等。通過利用
    的頭像 發(fā)表于 11-15 11:51 ?1080次閱讀

    AI圖像識(shí)別攝像機(jī)

    AI圖像識(shí)別攝像機(jī)是一種集成了先進(jìn)算法和深度學(xué)習(xí)模型的智能監(jiān)控設(shè)備。這些攝像機(jī)不僅能夠捕捉視頻畫面,還能實(shí)時(shí)分析和處理所拍攝的內(nèi)容,從而實(shí)現(xiàn)對(duì)特定對(duì)象、場(chǎng)景或行
    的頭像 發(fā)表于 11-08 10:38 ?687次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>圖像</b>識(shí)別攝像機(jī)

    ASTRA AI Hub詳細(xì)介紹

    ASTRA AI Hub以其強(qiáng)大的邊緣計(jì)算能力、低成本的AI升級(jí)方案、持續(xù)的產(chǎn)品價(jià)值提升、高級(jí)的視覺識(shí)別應(yīng)用以及端云智能交互的能力,為行業(yè)數(shù)字化轉(zhuǎn)型和消費(fèi)智能化升級(jí)提供了有力的支持。
    的頭像 發(fā)表于 10-24 16:23 ?553次閱讀
    ASTRA <b class='flag-5'>AI</b> <b class='flag-5'>Hub</b>詳細(xì)介紹

    RK3588 技術(shù)分享 | 在Android系統(tǒng)中使用NPU實(shí)現(xiàn)Yolov5分類檢測(cè)

    NPU。 應(yīng)用領(lǐng)域 圖像識(shí)別: NPU能夠迅速對(duì)圖像進(jìn)行分類、檢測(cè)和分割等操作,大大提升了處理效率。 語音識(shí)別: NPU實(shí)現(xiàn)了實(shí)時(shí)語音轉(zhuǎn)換和語音合成功能,為語音交互提供了更自然的體驗(yàn)。
    發(fā)表于 10-24 10:13

    AI大模型在圖像識(shí)別中的優(yōu)勢(shì)

    大模型借助高性能的計(jì)算硬件和優(yōu)化的算法,能夠在短時(shí)間內(nèi)完成對(duì)大量圖像數(shù)據(jù)的處理和分析,顯著提高了圖像識(shí)別的效率。 識(shí)別準(zhǔn)確性 :通過深度學(xué)習(xí)和計(jì)算機(jī)視覺技術(shù),AI大模型能夠自動(dòng)提取圖像
    的頭像 發(fā)表于 10-23 15:01 ?2117次閱讀

    Freepik攜手Magnific AI推出AI圖像生成器

    近日,設(shè)計(jì)資源巨頭Freepik攜手Magnific AI,共同推出了革命性的AI圖像生成器——Freepik Mystic,這一里程碑式的發(fā)布標(biāo)志著AI
    的頭像 發(fā)表于 08-30 16:23 ?1428次閱讀

    RK3588 技術(shù)分享 | 在Android系統(tǒng)中使用NPU實(shí)現(xiàn)Yolov5分類檢測(cè)-迅為電子

    RK3588 技術(shù)分享 | 在Android系統(tǒng)中使用NPU實(shí)現(xiàn)Yolov5分類檢測(cè)-迅為電子
    的頭像 發(fā)表于 08-23 14:58 ?1140次閱讀
    RK3588 技術(shù)分享 | 在<b class='flag-5'>Android</b>系統(tǒng)中使用NPU<b class='flag-5'>實(shí)現(xiàn)</b>Yolov5<b class='flag-5'>分類</b>檢測(cè)-迅為電子

    RK3588 技術(shù)分享 | 在Android系統(tǒng)中使用NPU實(shí)現(xiàn)Yolov5分類檢測(cè)

    NPU。 應(yīng)用領(lǐng)域 圖像識(shí)別: NPU能夠迅速對(duì)圖像進(jìn)行分類、檢測(cè)和分割等操作,大大提升了處理效率。 語音識(shí)別: NPU實(shí)現(xiàn)了實(shí)時(shí)語音轉(zhuǎn)換和語音合成功能,為語音交互提供了更自然的體驗(yàn)。
    發(fā)表于 08-20 11:13

    計(jì)算機(jī)視覺怎么給圖像分類

    圖像分類是計(jì)算機(jī)視覺領(lǐng)域中的一項(xiàng)核心任務(wù),其目標(biāo)是將輸入的圖像自動(dòng)分配到預(yù)定義的類別集合中。這一過程涉及圖像的特征提取、特征表示以及分類器的
    的頭像 發(fā)表于 07-08 17:06 ?1392次閱讀

    光譜成像光源 實(shí)現(xiàn)對(duì)細(xì)微色差的分類

    光源在機(jī)器視覺中的重要性不容小覷,它直接影響到圖像的質(zhì)量,進(jìn)而影響整個(gè)系統(tǒng)的性能。然而自然光LED光源不能完全滿足實(shí)際需求,比如對(duì)細(xì)微的色差進(jìn)行分類,我們就需要考慮紅外光譜光源。所謂
    的頭像 發(fā)表于 06-08 08:34 ?881次閱讀
    <b class='flag-5'>高</b>光譜成像光源 <b class='flag-5'>實(shí)現(xiàn)</b>對(duì)細(xì)微色差的<b class='flag-5'>分類</b>

    AI Hub支持驍龍X系列,賦能Windows PC終端AI

    在Microsoft Build 2024開發(fā)者大會(huì)上,通技術(shù)公司宣布了重大進(jìn)展。公司擴(kuò)展了通?AI Hub,使其支持驍龍?X系列平臺(tái),旨在幫助開發(fā)者更快地將創(chuàng)新產(chǎn)品推向市場(chǎng)。這一
    的頭像 發(fā)表于 05-27 10:16 ?721次閱讀