夸克瀏覽器是阿里旗下的一個搭載極速AI引擎的高速智能瀏覽器。夸客以極速智能搜索為定位,致力于為用戶提供交互更智能高效、內(nèi)容更專業(yè)權(quán)威的新一代搜索引擎,同時也在產(chǎn)品極致體驗上不斷實現(xiàn)突破。
夸克目前不僅提供極致的搜索體驗,也在探索以深度學(xué)習(xí)為基礎(chǔ)的AI工具,通過高效的算法效果和全流程的性能優(yōu)化,提供更好的用戶體驗。深度學(xué)習(xí)模型在實際應(yīng)用的過程中,效果遠好于傳統(tǒng)模型,但由于算法復(fù)雜度過高,預(yù)測性能成為制約模型最終能否上線的核心問題。NVIDIA TensorRT通過計算圖的優(yōu)化、高效Kernel的實現(xiàn)及更高效硬件的利用加速模型預(yù)測耗時,使預(yù)測速度提升了1~3倍。
智能相機功能對ORC實時性提出新要求
夸克瀏覽器為用戶提供智能相機功能,打開夸克APP后,通過相機入口(如下左圖紅框所示)進入智能相機功能,可以看到智能相機提供的具體功能(如下右圖所示),包括萬能掃描、學(xué)習(xí)輔導(dǎo)、萬物識別等功能,這些功能對實時性要求極高,不少功能的底層核心技術(shù)依賴OCR。作為核心一環(huán),OCR需要承接巨大流量,其效果及性能影響整個上層業(yè)務(wù)的用戶體驗。
OCR全流程包含檢測、識別等多個模型以及復(fù)雜的前后處理,整體耗時10s級別,耗時過長嚴(yán)重影響用戶體驗,無法達到上線要求。主要影響性能的因素有以下三點:單個模型占用顯存過大導(dǎo)致全流程無法部署在同一個GPU上,需要在多個GPU上進行數(shù)據(jù)傳輸,多GPU部署導(dǎo)致GPU利用率不高;模型本身性能慢,涉及復(fù)雜的檢測和識別模型;全流程中模型前后處理復(fù)雜。
NVIDIA TensorRT助力模型性能提升
對比目前性能優(yōu)化方案,夸克選擇了采用NVIDIA TensorRT作為模型優(yōu)化的底層框架對模型進行優(yōu)化。TensorRT提供完整端到端模型性能優(yōu)化工具,支持TF和ONNX等相關(guān)框架模型,使用后對模型性能帶來巨大提升。
1、TensorRT對模型結(jié)構(gòu)進行優(yōu)化,使用高效Kernel實現(xiàn),并且支持FP16和INT8量化。部分模型通過使用TensorRT,模型性能達到2-3倍的提升,并且顯存降到原來的30%~50%。
2、有模型在使用FP16精度后,模型效果下降,夸克團隊在NVIDIA工作人員的指導(dǎo)下,通過對模型設(shè)置混合精度,模型的性能較FP16略微下降,但整體效果能夠達到要求。
3、對于部分轉(zhuǎn)TensorRT失敗的模型,對模型進行分析,單獨抽取模型耗時的部分進行模型優(yōu)化。
4、在使用TensorRT的過程中,通過Nsight Systems發(fā)現(xiàn)TensorRT OP在某些場景性能表現(xiàn)不盡人意,在NVIDIA工作人員指導(dǎo)下,通過調(diào)整OP的使用方式解決該問題。
TensorRT助力OCR全流程性能優(yōu)化
通過使用NVIDIA TensorRT,夸克瀏覽器極大地提升了模型性能和降低模型本身顯存占用,提高了GPU的使用率。在對整體流程和模型進行優(yōu)化后,全部模型能夠部署在單個GPU上,并且整體耗時在400ms內(nèi)。
夸克技術(shù)人員表示:TensorRT文檔齊全,功能使用方便,用戶能夠以低門檻使用其帶來的優(yōu)化,無需手動編寫復(fù)雜模型轉(zhuǎn)換工具,大大地減少了用戶投入成本。對比其他模型優(yōu)化框架,TensorRT具有更好的通用性、易用性和性能。
通過這次對OCR全流程的性能優(yōu)化,夸克瀏覽器也積累了一套適合內(nèi)部使用的模型性能優(yōu)化方案,在遇到其他模型性能問題時也有的放矢。目前夸克已經(jīng)把TensorRT相關(guān)優(yōu)化工具集成到其瀏覽器的內(nèi)部平臺上,同時應(yīng)用到其他業(yè)務(wù)的模型中,并取得良好的效果。
責(zé)任編輯:haq
-
NVIDIA
+關(guān)注
關(guān)注
14文章
5299瀏覽量
106291 -
AI
+關(guān)注
關(guān)注
88文章
35041瀏覽量
279075 -
瀏覽器
+關(guān)注
關(guān)注
1文章
1040瀏覽量
36266
原文標(biāo)題:NVIDIA TensorRT 加速夸克瀏覽器AI應(yīng)用,對模型性能提升起到關(guān)鍵作用
文章出處:【微信號:NVIDIA-Enterprise,微信公眾號:NVIDIA英偉達企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
如何在魔搭社區(qū)使用TensorRT-LLM加速優(yōu)化Qwen3系列模型推理部署
NVIDIA Blackwell GPU優(yōu)化DeepSeek-R1性能 打破DeepSeek-R1在最小延遲場景中的性能紀(jì)錄

使用NVIDIA Triton和TensorRT-LLM部署TTS應(yīng)用的最佳實踐

NVIDIA技術(shù)助力Pantheon Lab數(shù)字人實時交互解決方案
NVIDIA推出開放式Llama Nemotron系列模型
NVIDIA推出面向RTX AI PC的AI基礎(chǔ)模型
在NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

解鎖NVIDIA TensorRT-LLM的卓越性能
NVIDIA TensorRT-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布

使用NVIDIA TensorRT提升Llama 3.2性能
TensorRT-LLM低精度推理優(yōu)化

NVIDIA NIM助力企業(yè)高效部署生成式AI模型
NVIDIA助力提供多樣、靈活的模型選擇
NVIDIA Nemotron-4 340B模型幫助開發(fā)者生成合成訓(xùn)練數(shù)據(jù)

評論