女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

模糊圖像變高清:TPU-MLIR引領EDSR向MDSR的智能轉換!

算能開發(fā)者社區(qū) ? 2023-12-11 17:51 ? 次閱讀

模型介紹

EDSR模型,全稱為enhanced deep super-resolution network(增強的深度學習超分辨率重建網絡)。該模型可以對指定圖片進行超分辨率操作,提高清晰度。

而MDSR是多尺度的超分模型,可以一次輸出不同scale的圖片,相比EDSR,可以在相同的性能下,減少很多的參數(shù)。

EDSR模型結構如下:

d04412b4-980a-11ee-9788-92fbcf53809c.png

MDSR模型結構如下:

d062e8ec-980a-11ee-9788-92fbcf53809c.png

本期內容將會帶領大家學習如何利用TPU-MLIR實現(xiàn)EDSR模型到MDSR模型的轉換。

模型導出與轉換

基本流程為將原項目與模型下載后導出為onnx模型。再利用TPU-MLIR工具將onnx模型轉換為bmodel模型。

目錄結構安排如下,其中dataset文件夾中是量化所用的DIV2K數(shù)據(jù)集,image文件夾下是測試圖片,model文件夾中是待轉換的onnx模型。

.
├──dataset
│├──x2
│├──x3
│└──x4
├──image
└──model
├──EDSR_x2.onnx
├──EDSR_x3.onnx
├──EDSR_x4.onnx
├──MDSR_x2.onnx
├──MDSR_x3.onnx
└──MDSR_x4.onnx

以下命令均在TPU-MLIR的docker環(huán)境內進行。

進入EDSR-transform目錄

設置參數(shù)

scale=4
size=100
echoscale=${scale}size=${size}
mkdirworkspace_x${scale}&&cdworkspace_x${scale}

  1. 模型轉換和量化

#算子轉換、圖優(yōu)化
model_transform.py\
--model_nameEDSR_x${scale}\
--model_def../model/EDSR_x${scale}.onnx\
--input_shapes[[1,3,${size},${size}]]\
--keep_aspect_ratio\
--pixel_formatrgb\
--test_input../image/0901x${scale}.png\
--test_resultEDSR_x${scale}_outputs.npz\
--mlirEDSR_x${scale}.mlir

#建立校準表
run_calibration.pyEDSR_x${scale}.mlir\
--dataset../dataset/X${scale}\
--input_num50\
-oEDSR_x${scale}_cali_table

#多層優(yōu)化和轉換bmodel
##轉換INT8模型
model_deploy.py\
--mlirEDSR_x${scale}.mlir\
--quantizeINT8\
--calibration_tableEDSR_x${scale}_cali_table\
--chipbm1684x\
--test_inputEDSR_x${scale}_in_f32.npz\
--test_referenceEDSR_x${scale}_outputs.npz\
--tolerance0.85,0.45\
--modelEDSR_x${scale}_1684x_int8_sym.bmodel

##轉換FP16模型
model_deploy.py\
--mlirEDSR_x${scale}.mlir\
--quantizeF16\
--chipbm1684x\
--test_inputEDSR_x${scale}_in_f32.npz\
--test_referenceEDSR_x${scale}_top_outputs.npz\
--modelEDSR_x${scale}_1684x_f32_sym.bmodel

##轉換FP32模型
model_deploy.py\
--mlirEDSR_x${scale}.mlir\
--quantizeF32\
--chipbm1684x\
--test_inputEDSR_x${scale}_in_f32.npz\
--test_referenceEDSR_x${scale}_top_outputs.npz\
--modelEDSR_x${scale}_1684x_f32_sym.bmodel

#將以上所有EDSR改為MDSR即可轉換MDSR模型

轉換結果評估

評估過程說明

  1. 配置好BM1684X平臺,上傳并解壓本項目EDSR-BM1684x.zip,同時下載benchmark數(shù)據(jù)集,確保benchmark與EDSR文件夾在同一目錄內。進入EDSR/python目錄下,運行以下命令:

####predictonbm1684x
formodelin{EDSR,MDSR};do
forscalein{2,3,4};do
echo-------------------------------------dataset=Set14-------------scale=${scale}-------------------------------------
cmd="pythonrun_opencv_crop.py--input../../benchmark/Set14/LR_bicubic/X${scale}\
--outputresults/${model}_Set14_x${scale}_int8\
--bmodel../models/BM1684X/${model}_x${scale}/${model}_x${scale}_1684x_int8_sym.bmodel"
echo">>>Running:${cmd}"
$cmd
done
done

  • 推理結果保存在EDSR/python/results中,更改不同bmodel參數(shù)以使用不同bmodel
  1. 評估結果方法

####安裝評估模型
pipinstalllpips

評估主要代碼(eval.py)如下

...
fori,srinenumerate(sr_list):
hr=Path(args.hr_path)/(sr.stem.split('x')[0]+sr.suffix)
ifnothr.exists():
logging.error(f'{sr}:{hr}doesnotexist')
hr_list.append(None)
continue
hr_list.append(hr)

sr_img=Image.open(sr).convert('RGB')
hr_img=Image.open(hr).convert('RGB')
ifhr_img.size!=sr_img.size:
logging.info(f'croppinghr_imgfrom{hr_img.size}to{sr_img.size}')
#hr_img=hr_img.resize(sr_img.size,resample=Image.Resampling.BICUBIC)
hr_img=hr_img.crop((0,0,sr_img.size[0],sr_img.size[1]))
sr_img=np.array(sr_img)
hr_img=np.array(hr_img)

lpi=calculate_lpips(sr_img,hr_img,border=args.scale)

sr_img_y=rgb2ycbcr(sr_img,only_y=True)
hr_img_y=rgb2ycbcr(hr_img,only_y=True)
#sr_img_y=sr_img
#hr_img_y=hr_img
psnr=calculate_psnr(sr_img_y,hr_img_y,border=args.scale)
ssim=calculate_ssim(sr_img_y,hr_img_y,border=args.scale)
...

####evaluateonbm1684x
scale=(234)
formodelin{EDSR,MDSR};do
foriin"${!scale[@]}";do
echo-------------scale=${scale[$i]}-----------------
cmd="pythoneval.py--hr_path../../benchmark/Set14/HR--sr_pathresults/${model}_Set14_x${scale[$i]}_int8--scale${scale[$i]}"
echo">>>Running:${cmd}"
$cmd
done
done

  • 評價結果保存在results/*/result.log里
  1. 若是想測試自己的圖片,請將圖片放入image目錄下然后運行以下命令,結果保存在results/image里。更改bmodel模型來更換模型與超分倍率

pythonrun_opencv_crop.py--input../image\
--outputresults/image\
--bmodel../models/BM1684X/EDSR_x2_1684x_int8_sym.bmodel

評價代碼如下

pythoneval.py--sr_pathresults/image--hr_path../image--scale{sacle}

評估結果

精度測試方法

測試數(shù)據(jù)集采用Set14數(shù)據(jù)集,指標采用與原論文一致的PSNR+SSIM指標來衡量圖像質量。因為我們在模型固定輸入大小的情況下,對原圖進行裁切,超分,拼合的形式達到動態(tài)輸入的效果,所以有的精度指標在測試中不僅不會降低反而會升高。同時又由于不同放大倍數(shù)的模型輸入大小和模型參數(shù)不一樣,推理時間的比例也會發(fā)生變化。

fp32結果

d0695d4e-980a-11ee-9788-92fbcf53809c.png

fp32

fp16結果

d078ecaa-980a-11ee-9788-92fbcf53809c.png

fp16

int8結果

d0894df2-980a-11ee-9788-92fbcf53809c.png

int8

精度對比

d097f10e-980a-11ee-9788-92fbcf53809c.png

precise

性能對比

d0a822b8-980a-11ee-9788-92fbcf53809c.png

precise

結論

本次轉換了EDSR和MDSR超分辨率模型,分別實現(xiàn)了fp32, fp16, int8多種精度模型轉換, TPU-MLIR對這兩個模型支持較好,轉換過程中比較順利。從最終評估結果上看,這兩個超分模型對推理的數(shù)值精度不敏感,經過量化后,相關指標損失較少,甚至有些指標還會提升。另外,在BM1684X的平臺上,INT8推理時間最短,故在部署時,推薦使用量化后的INT8模型部署。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關注

    關注

    1

    文章

    3483

    瀏覽量

    49987
  • TPU
    TPU
    +關注

    關注

    0

    文章

    151

    瀏覽量

    21077
  • 深度學習
    +關注

    關注

    73

    文章

    5554

    瀏覽量

    122471
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    華為引領行業(yè)智能電動化時代轉型

    副總裁、華為數(shù)字能源智能電動產品線總裁王超發(fā)表主題演講,表示華為智能電動DriveONE將以“度電續(xù)航”和“運動域”為兩大核心突破口,引領行業(yè)智能
    的頭像 發(fā)表于 04-25 16:50 ?285次閱讀

    TPU處理器的特性和工作原理

    張量處理單元(TPU,Tensor Processing Unit)是一種專門為深度學習應用設計的硬件加速器。它的開發(fā)源于對人工智能(AI)和機器學習應用的需求,尤其是深度學習中的神經網絡計算。
    的頭像 發(fā)表于 04-22 09:41 ?829次閱讀
    <b class='flag-5'>TPU</b>處理器的特性和工作原理

    明遠智睿SSD2351核心板助力智能監(jiān)控系統(tǒng)升級

    ,在同時接入8路1080P高清攝像頭時,視頻數(shù)據(jù)傳輸流暢,無丟幀現(xiàn)象,保證了監(jiān)控畫面的完整性和連續(xù)性。 IPU(圖像信號處理器)是SSD2351核心板提升圖像質量的關鍵組件。在智能監(jiān)控
    發(fā)表于 04-14 18:28

    DLPDLCR2000EVM輸入對焦電機控制指令時,觀察輸出的投影儀圖像,沒有明顯變化是怎么回事?

    1、把0x00000032寫入到0x39寄存器,在將0x00000001寫入到0x3a,最后將0x000000ca寫入0x38寄存器中。 2、觀看投影儀輸出的圖像,圖片沒有模糊也沒有變清晰。
    發(fā)表于 02-21 07:10

    調試THS8200時圖像能正常輸出,但是圖像模糊不清怎么樣解決?

    我們在調試THS8200時圖像能正常輸出,但是圖像模糊不清,跟原來圖像相比差太遠了,您們能提供一些調試參數(shù)給我們嗎?或者怎么樣解決?圖像
    發(fā)表于 01-17 07:18

    【「大模型啟示錄」閱讀體驗】+開啟智能時代的新鑰匙

    閱讀之旅。在翻開這本書之前,我對大模型的認知僅僅停留在它是一種強大的人工智能技術,可以進行自然語言處理、圖像識別等任務。我知道像 ChatGPT 這樣的應用是基于大模型開發(fā)的,能夠與人類進行較為流暢
    發(fā)表于 12-24 13:10

    電壓無憂:380V 480V 變壓器引領高效電能變換

    智能掌控,電壓無憂:380V 480V 變壓器引領高效電能變換 在當今復雜多變的工業(yè)用電環(huán)境中,穩(wěn)定且精準的電壓供應對于設備的正常運轉和性能發(fā)揮起著決定性作用。380V 480
    的頭像 發(fā)表于 12-03 16:53 ?423次閱讀
    電壓無憂:380V <b class='flag-5'>變</b> 480V 變壓器<b class='flag-5'>引領</b>高效電能變換

    線路在線監(jiān)測裝置智能圖像機的核心優(yōu)勢是什么?

    答:大家好,今天特地來和大家分享一款電網監(jiān)控領域的神器——線路在線監(jiān)測裝置智能圖像機TLKS-PMG-PV500!這款裝置憑借其獨特的設計與先進的技術,正引領著電網監(jiān)控的新潮流。不得不提的是,該裝
    發(fā)表于 09-25 15:44

    JX-H63高清CMOS圖像傳感器英文手冊

    電子發(fā)燒友網站提供《JX-H63高清CMOS圖像傳感器英文手冊.pdf》資料免費下載
    發(fā)表于 08-08 14:21 ?1次下載

    無源逆的基本類型和應用

    直流電源自身的能量進行轉換。無源逆技術在電力電子領域具有廣泛的應用,如太陽能光伏發(fā)電、風力發(fā)電、蓄電池儲能等。 1.2 無源逆與有源逆的區(qū)別 有源逆
    的頭像 發(fā)表于 08-05 09:15 ?2528次閱讀

    無源逆的基本類型包括哪些

    程中,不需要外部電源提供能量,而是通過電路內部的能量轉換實現(xiàn)直流電能交流電能的轉換。與傳統(tǒng)的有源逆變相比,無源逆具有結構簡單、成本低廉、可靠性高等優(yōu)點。 1.2 無源逆
    的頭像 發(fā)表于 08-02 17:15 ?1893次閱讀

    有源逆的工作原理是什么?實現(xiàn)有源逆的條件是什么?

    、MOSFET等)來控制電流的流動,從而實現(xiàn)直流電能交流電能的轉換。 有源逆的基本結構 有源逆的基本結構包括三個主要部分:直流電源、逆變器和負載。直流電源提供直流電能,逆變器將直
    的頭像 發(fā)表于 08-02 17:12 ?5027次閱讀

    TPU v1到Trillium TPU,蘋果等科技公司使用谷歌TPU進行AI計算

    ,在訓練尖端人工智能方面,大型科技公司正在尋找英偉達以外的替代品。 ? 不斷迭代的谷歌TPU 芯片 ? 隨著機器學習算法,特別是深度學習算法在各個領域的廣泛應用,對于高效、低功耗的AI計算硬件需求日益增長。傳統(tǒng)的CPU和GPU在處理這些算法時存在效率較低的問
    的頭像 發(fā)表于 07-31 01:08 ?3773次閱讀

    基于RK3588的8K視頻解碼顯示案例分享!引領高清工業(yè)視頻時代

    。這是目前大多數(shù)消費者電視和電腦顯示器的標準分辨率,可以提供良好的圖像質量。4K分辨率:也稱為4K超高清(4K ULTRA HD),它具有3840 x 2160像素的分辨率。4K顯示屏相對于傳統(tǒng)的全高清
    發(fā)表于 07-17 11:15

    【算能RADXA微服務器試用體驗】+ GPT語音與視覺交互:2,圖像識別

    /download.sh 下載完成后,應該可以看到文件夾中出現(xiàn)以下模型: ./models ├── BM1684 │├── yolov8s_fp32_1b.bmodel# 使用TPU-MLIR編譯,用于
    發(fā)表于 07-14 23:36