女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

如何使用TPU-MLIR進(jìn)行模型轉(zhuǎn)換

jf_pJlTbmA9 ? 來(lái)源:jf_pJlTbmA9 ? 作者:jf_pJlTbmA9 ? 2023-08-21 10:41 ? 次閱讀

使用TPU-MLIR進(jìn)行模型轉(zhuǎn)換的時(shí)候我們會(huì)在各個(gè)階段對(duì)比模型每一層輸出的相似度,以確保模型轉(zhuǎn)換的正確性,同時(shí)也能夠在適配過(guò)程中更方便地定位問(wèn)題來(lái)源。

但我們并不知道轉(zhuǎn)換后的模型精度如何,特別是INT8量化后的模型輸出,往往與原模型輸出存在較大的區(qū)別(當(dāng)然這個(gè)區(qū)別是在可接受的范圍內(nèi)的),光靠對(duì)比輸出的相似度我們并不能看出INT8模型的表現(xiàn)究竟怎么樣。所以,TPU-MLIR也提供了精度驗(yàn)證的接口,來(lái)檢驗(yàn)轉(zhuǎn)換后的模型表現(xiàn)。

在進(jìn)行精度驗(yàn)證前,首先我們需要準(zhǔn)備好用于驗(yàn)證的數(shù)據(jù)集,因?yàn)門PU-MLIR里沒(méi)有自帶完整的測(cè)試集,所以用于精度驗(yàn)證的數(shù)據(jù)集需要大家自行下載,對(duì)于分類網(wǎng)絡(luò)主要使用的是IMAGENET2012的驗(yàn)證集,一共有5w張圖片,而目標(biāo)檢測(cè)網(wǎng)絡(luò)使用的是COCO2017的驗(yàn)證集,共5k張圖。TPU-MLIR后續(xù)還會(huì)逐步支持更多類型,例如NLP領(lǐng)域的網(wǎng)絡(luò),未來(lái)也會(huì)開放。

另外,對(duì)于分類數(shù)據(jù)集的擺放方式,是將5w張圖片分別放在1000個(gè)子目錄中,對(duì)應(yīng)imagenet里的1000個(gè)類別,每個(gè)類別下有50張屬于該類別的圖片,這類擺放方式自然就不再需要額外的標(biāo)簽文件;

對(duì)于COCO數(shù)據(jù)集的話相對(duì)比較簡(jiǎn)單,所有的圖片都是放在一個(gè)目錄下,每張圖片的類別信息都會(huì)從對(duì)應(yīng)的json文件中提取;

wKgaomTeyfWAJ1I5AAIyc10Ac1Y100.jpg

準(zhǔn)備好數(shù)據(jù)集后,我們就可以直接使用model_eval這一接口對(duì)mlir模型進(jìn)行精度驗(yàn)證,主要會(huì)用到這五個(gè)參數(shù):

model_file與dataset參數(shù)用于提供模型與數(shù)據(jù)集路徑

count用于明確我們要用來(lái)驗(yàn)證精度的圖片數(shù)量,默認(rèn)情況下是使用整個(gè)目錄下的數(shù)據(jù)集

dataset_type則是根據(jù)驗(yàn)證的模型類型用于指定對(duì)應(yīng)數(shù)據(jù)集的加載方式

postprocess_type則是用來(lái)明確輸出的后處理方式,然后用相應(yīng)的metrics來(lái)計(jì)算精度

那這里不需要提供預(yù)處理信息嗎?

其實(shí)在mlir模型的input_op里就已經(jīng)包含了對(duì)數(shù)據(jù)的預(yù)處理信息,主要包括mean, scale, resize的尺寸與resize時(shí)是否保持高寬比, 輸入圖片數(shù)據(jù)的pixel_format等,其中Mean和scale用于對(duì)輸入的pixel value進(jìn)行線性變換,與大家常用的mean與std相似,只不過(guò)它把normalize的部分融合進(jìn)了mean與std中。

而對(duì)于模型的評(píng)估方式,分類網(wǎng)絡(luò)我們主要使用的是Top1與Top5 accuracy,也就是看模型輸出的概率中排序最高與前五的類別里是否包含了正確的類別,而目標(biāo)檢測(cè)網(wǎng)絡(luò)我們使用的則是COCO官方的12個(gè)評(píng)估指標(biāo),從不同方面去驗(yàn)證mlir模型的精度。

先將模型輸出的檢測(cè)框經(jīng)過(guò)non-maximum suppression剔除掉重疊與概率較低的候選框后再用剩下的計(jì)算與ground truth bounding box的IoU,然后根據(jù)不同指標(biāo)的計(jì)算規(guī)則計(jì)算出相應(yīng)的average precision與average recall。比如第一個(gè)指標(biāo)是指從IoU=0.5到0.95每間隔0.05計(jì)算一次模型針對(duì)單個(gè)類別的precision, 然后取平均數(shù),再將所有類別的precision累加起來(lái)取平均數(shù),這其實(shí)就是mAP的其中一種計(jì)算方式,而其它兩個(gè)指標(biāo)只采用了單個(gè)IoU threshold來(lái)計(jì)算AP。

COCO數(shù)據(jù)集還會(huì)按照物體所占的像素?cái)?shù)量來(lái)區(qū)分大中小物體,TPU-MLIR也會(huì)分別對(duì)這些不同尺寸物體的檢測(cè)結(jié)果計(jì)算AP與AR來(lái)驗(yàn)證mlir模型在檢測(cè)大中小物體上的精度

至于這個(gè)AR max=1,10和100指的是分別限制每張圖片只有1,10和100個(gè)概率最高的檢測(cè)結(jié)果,然后與第一個(gè)AP的計(jì)算方式相似,按照IoU threshold從0.5到0.95,每隔0.05計(jì)算一次單個(gè)類別的AR,先取AR在不同IoU下的平均值,再取AR在不同類別下的平均值。

TPU-MLIR目前在github上發(fā)布了一系列待解決的問(wèn)題,非常歡迎對(duì)AI編譯器感興趣且想要在空閑時(shí)間豐富自己開源項(xiàng)目經(jīng)歷的朋友們來(lái)參與,與我們一起完善TPU-MLIR這個(gè)新一代的AI編譯器。

審核編輯:彭菁

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 網(wǎng)絡(luò)
    +關(guān)注

    關(guān)注

    14

    文章

    7768

    瀏覽量

    90383
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1223

    瀏覽量

    25278
  • 模型轉(zhuǎn)換
    +關(guān)注

    關(guān)注

    0

    文章

    4

    瀏覽量

    5278
  • nlp
    nlp
    +關(guān)注

    關(guān)注

    1

    文章

    490

    瀏覽量

    22486
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    TPU-MLIR開發(fā)環(huán)境配置時(shí)出現(xiàn)的各種問(wèn)題求解

    按照 TPU-MLIR 開發(fā)指南進(jìn)行環(huán)境配置: 2.1. 代碼下載? 代碼路徑: https://github.com/sophgo/tpu-mlir 克隆該代碼后, 需要在Docker中編譯
    發(fā)表于 01-10 08:02

    FP16轉(zhuǎn)換報(bào)錯(cuò)的原因?

    FP32轉(zhuǎn)換正常,F(xiàn)P16轉(zhuǎn)換報(bào)錯(cuò)(model_transform正常) 運(yùn)行命令為: model_deploy.py--mlir
    發(fā)表于 01-10 08:01

    【算能RADXA微服務(wù)器試用體驗(yàn)】+ GPT語(yǔ)音與視覺(jué)交互:2,圖像識(shí)別

    /download.sh 下載完成后,應(yīng)該可以看到文件夾中出現(xiàn)以下模型: ./models ├── BM1684 │├── yolov8s_fp32_1b.bmodel# 使用TPU-MLIR編譯,用于
    發(fā)表于 07-14 23:36

    在“model_transform.py”添加參數(shù)“--resize_dims 640,640”是否表示tpu會(huì)自動(dòng)resize的?

    resize和letterbox的處理,在“TPU-MLIR入門快速指南.pdf”里的“使用TPU做前處理”里提到了“圖像裁剪”,沒(méi)看明白,能詳細(xì)解釋下的嗎?
    發(fā)表于 09-18 07:56

    TPU和GPU的帶寬模型

    帶寬模型最大的限制就是這些計(jì)算是針對(duì)特定矩陣大小的,計(jì)算的難度在各種尺寸之間都不同。例如,如果你的batch size是128,那么GPU的速度會(huì)比TPU稍快一點(diǎn)。如果batch size小于128
    的頭像 發(fā)表于 10-21 09:20 ?4599次閱讀

    如何給TPU-MLIR添加新的算子

    如何給TPU-MLIR添加新的算子
    的頭像 發(fā)表于 08-18 11:29 ?957次閱讀
    如何給<b class='flag-5'>TPU-MLIR</b>添加新的算子

    TPU-MLIR中的融合處理

    TPU-MLIR中的融合處理
    的頭像 發(fā)表于 08-18 11:29 ?677次閱讀
    <b class='flag-5'>TPU-MLIR</b>中的融合處理

    基于STE的QAT算法

    TPU-MLIR之量化感知訓(xùn)練(下)
    的頭像 發(fā)表于 08-21 10:46 ?878次閱讀
    基于STE的QAT算法

    TPU-MLIR之量化感知訓(xùn)練

    TPU-MLIR之量化感知訓(xùn)練(上)
    的頭像 發(fā)表于 08-21 10:47 ?1054次閱讀
    <b class='flag-5'>TPU-MLIR</b>之量化感知訓(xùn)練

    TPU-MLIR量化敏感層分析,提升模型推理精度

    背景介紹TPU-MLIR編譯器可以將機(jī)器學(xué)習(xí)模型轉(zhuǎn)換成算能芯片上運(yùn)行的bmodel模型。由于浮點(diǎn)數(shù)的計(jì)算需要消耗更多的計(jì)算資源和存儲(chǔ)空間,實(shí)際應(yīng)用中往往采用量化后的
    的頭像 發(fā)表于 10-10 10:17 ?1871次閱讀
    <b class='flag-5'>TPU-MLIR</b>量化敏感層分析,提升<b class='flag-5'>模型</b>推理精度

    如何適配新架構(gòu)?TPU-MLIR代碼生成CodeGen全解析!

    背景介紹TPU-MLIR的CodeGen是BModel生成的最后一步,該過(guò)程目的是將MLIR文件轉(zhuǎn)換成最終的Bmodel。本文介紹了CodeGen的基本原理和流程,并記錄了針對(duì)BM1684X等新架構(gòu)
    的頭像 發(fā)表于 11-02 08:34 ?2191次閱讀
    如何適配新架構(gòu)?<b class='flag-5'>TPU-MLIR</b>代碼生成CodeGen全解析!

    模糊圖像變高清:TPU-MLIR引領(lǐng)EDSR向MDSR的智能轉(zhuǎn)換

    模型介紹EDSR模型,全稱為enhanceddeepsuper-resolutionnetwork(增強(qiáng)的深度學(xué)習(xí)超分辨率重建網(wǎng)絡(luò))。該模型可以對(duì)指定圖片進(jìn)行超分辨率操作,提高清晰度。
    的頭像 發(fā)表于 12-11 17:51 ?3097次閱讀
    模糊圖像變高清:<b class='flag-5'>TPU-MLIR</b>引領(lǐng)EDSR向MDSR的智能<b class='flag-5'>轉(zhuǎn)換</b>!

    深入學(xué)習(xí)和掌握TPU硬件架構(gòu)有困難?TDB助力你快速上手!

    快速定位BModel與原始模型推理結(jié)果不一致的問(wèn)題,進(jìn)而修復(fù)TPU-MLIR的編譯或模型出錯(cuò)點(diǎn)。下圖是TDB工具集的框架。TDB主要是基于Python開發(fā)的,其核心功能
    的頭像 發(fā)表于 12-22 08:33 ?1141次閱讀
    深入學(xué)習(xí)和掌握<b class='flag-5'>TPU</b>硬件架構(gòu)有困難?TDB助力你快速上手!

    重塑翻譯與識(shí)別技術(shù):開源語(yǔ)音識(shí)別模型Whisper的編譯優(yōu)化與部署

    :通過(guò)修改TPU-MLIR編譯器代碼,可以對(duì)Whisper模型性能進(jìn)行深度優(yōu)化,使得模型在SOPHONBM1684X處理器上運(yùn)行時(shí)間減少到原來(lái)的一半,本篇文章將帶
    的頭像 發(fā)表于 01-06 08:33 ?4560次閱讀
    重塑翻譯與識(shí)別技術(shù):開源語(yǔ)音識(shí)別<b class='flag-5'>模型</b>Whisper的編譯優(yōu)化與部署

    如何高效處理LMEM中的數(shù)據(jù)?這篇文章帶你學(xué)會(huì)!

    WeightReorder是TPU-MLIR的一個(gè)pass(參考TPU-MLIR編譯流程圖),其完成了對(duì)部分常量數(shù)據(jù)的Layout變化和合并。本文介紹其中ConvlotionKernel
    的頭像 發(fā)表于 01-19 08:33 ?1138次閱讀
    如何高效處理LMEM中的數(shù)據(jù)?這篇文章帶你學(xué)會(huì)!