女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA TensorRT 8.2將推理速度提高6倍

星星科技指導(dǎo)員 ? 來源:NVIDIA ? 作者:About Jay Rodge ? 2022-03-31 17:10 ? 次閱讀

NVIDIA 發(fā)布了 TensorRT 8.2 ,對十億參數(shù) NLU 模型進行了優(yōu)化。其中包括 T5 和 GPT-2 ,用于翻譯和文本生成,使實時運行 NLU 應(yīng)用程序成為可能。

TensorRT 是一款高性能的深度學(xué)習(xí)推理優(yōu)化器和運行時,為人工智能應(yīng)用程序提供低延遲、高吞吐量推理。 TensorRT 用于醫(yī)療、汽車、制造、互聯(lián)網(wǎng)/電信服務(wù)、金融服務(wù)和能源等多個行業(yè)。

PyTorch 和 TensorFlow 是擁有數(shù)百萬用戶的最流行的深度學(xué)習(xí)框架。新的 TensorRT 框架集成現(xiàn)在在 PyTorch 和 TensorFlow 中提供了一個簡單的 API ,并提供了強大的 FP16 和 INT8 優(yōu)化,從而將推理速度提高了 6 倍。

亮點包括

TensorRT 8.2:T5 和 GPT-2 的優(yōu)化運行實時翻譯和摘要,與 CPU 相比,性能提高了 21 倍。

TensorRT 8.2 :適用于使用 Windows 的開發(fā)人員的簡單 Python API 。

Torch TensorRT:PyTorch 的集成與 GPU 上的框架內(nèi)推理相比,僅需一行代碼即可提供高達(dá) 6 倍的性能。

TensorFlow TensorRT:TensorFlow 與 TensorRT 的集成提供了比使用一行代碼在 GPU 上進行框架內(nèi)推理快 6 倍的性能。

資源

Torch- TensorRT 在 NGC catalog 的 PyTorch 容器中提供。

TensorFlow- TensorRT 目前可從 NGC catalog 的 TensorFlow 容器中獲得。

TensorRT 免費提供給 NVIDIA 開發(fā)程序 的成員。

在 TensorRT 產(chǎn)品頁面了解更多信息。

關(guān)于作者

About Jay Rodge

Jay Rodge 是 NVIDIA 的產(chǎn)品營銷經(jīng)理,負(fù)責(zé)深入學(xué)習(xí)和推理產(chǎn)品,推動產(chǎn)品發(fā)布和產(chǎn)品營銷計劃。杰伊在芝加哥伊利諾伊理工學(xué)院獲得計算機科學(xué)碩士學(xué)位,主攻計算機視覺和自然語言處理。在 NVIDIA 之前,杰伊是寶馬集團的人工智能研究實習(xí)生,為寶馬最大的制造廠使用計算機視覺解決問題。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5240

    瀏覽量

    105768
  • 互聯(lián)網(wǎng)
    +關(guān)注

    關(guān)注

    54

    文章

    11232

    瀏覽量

    105585
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5554

    瀏覽量

    122477
收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    英偉達(dá)GTC25亮點:NVIDIA Blackwell Ultra 開啟 AI 推理新時代

    英偉達(dá)GTC25亮點:NVIDIA Blackwell Ultra 開啟 AI 推理新時代
    的頭像 發(fā)表于 03-20 15:35 ?617次閱讀

    英偉達(dá)GTC25亮點:NVIDIA Dynamo開源庫加速并擴展AI推理模型

    NVIDIA Dynamo 提高推理性能,同時降低了擴展測試時計算 (Scaling Test-Time Compute) 的成本;在 NVIDIA Blackwell 上的
    的頭像 發(fā)表于 03-20 15:03 ?543次閱讀

    Oracle 與 NVIDIA 合作助力企業(yè)加速代理式 AI 推理

    ——Oracle 和 NVIDIA 今日宣布,NVIDIA 加速計算和推理軟件與 Oracle 的 AI 基礎(chǔ)設(shè)施以及生成式 AI 服務(wù)首次實現(xiàn)集成,以幫助全球企業(yè)組織加速創(chuàng)建代理式 AI 應(yīng)用。 ? 此次
    發(fā)表于 03-19 15:24 ?307次閱讀
    Oracle 與 <b class='flag-5'>NVIDIA</b> 合作助力企業(yè)加速代理式 AI <b class='flag-5'>推理</b>

    使用修改后的基準(zhǔn)C++工具推斷灰度圖像時的推理速度慢怎么解決?

    修改了 基準(zhǔn)測試 C++ 工具 ,以加載灰度圖像。 獲得的推理速度非常低。
    發(fā)表于 03-06 07:11

    使用NVIDIA推理平臺提高AI推理性能

    NVIDIA推理平臺提高了 AI 推理性能,為零售、電信等行業(yè)節(jié)省了數(shù)百萬美元。
    的頭像 發(fā)表于 02-08 09:59 ?617次閱讀
    使用<b class='flag-5'>NVIDIA</b><b class='flag-5'>推理</b>平臺<b class='flag-5'>提高</b>AI<b class='flag-5'>推理</b>性能

    NVIDIA技術(shù)助力Pantheon Lab數(shù)字人實時交互解決方案

    、NVIDIA Triton,Pantheon Lab 訓(xùn)練速度提高 10 、推理延遲降低 50%,以及用戶參與度提升 30%。這些進步使
    的頭像 發(fā)表于 01-14 11:19 ?564次閱讀

    NVIDIA TensorRT-LLM中啟用ReDrafter的一些變化

    Recurrent Drafting (簡稱 ReDrafter) 是蘋果公司為大語言模型 (LLM) 推理開發(fā)并開源的一種新型推測解碼技術(shù),該技術(shù)現(xiàn)在可與 NVIDIA TensorRT-LLM 一起使用。
    的頭像 發(fā)表于 12-25 17:31 ?617次閱讀
    在<b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM中啟用ReDrafter的一些變化

    解鎖NVIDIA TensorRT-LLM的卓越性能

    NVIDIA TensorRT-LLM 是一個專為優(yōu)化大語言模型 (LLM) 推理而設(shè)計的庫。它提供了多種先進的優(yōu)化技術(shù),包括自定義 Attention Kernel、Inflight
    的頭像 發(fā)表于 12-17 17:47 ?702次閱讀

    NVIDIA TensorRT-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布

    感謝眾多用戶及合作伙伴一直以來對NVIDIA TensorRT-LLM的支持。TensorRT-LLM 的 Roadmap 現(xiàn)已在 GitHub 上公開發(fā)布!
    的頭像 發(fā)表于 11-28 10:43 ?614次閱讀
    <b class='flag-5'>NVIDIA</b> <b class='flag-5'>TensorRT</b>-LLM Roadmap現(xiàn)已在GitHub上公開發(fā)布

    TensorRT-LLM低精度推理優(yōu)化

    本文分享 TensorRT-LLM 中低精度量化內(nèi)容,并從精度和速度角度對比 FP8 與 INT8。首先介紹性能,包括速度和精度。其次,介紹量化工具
    的頭像 發(fā)表于 11-19 14:29 ?1059次閱讀
    <b class='flag-5'>TensorRT</b>-LLM低精度<b class='flag-5'>推理</b>優(yōu)化

    魔搭社區(qū)借助NVIDIA TensorRT-LLM提升LLM推理效率

    “魔搭社區(qū)是中國最具影響力的模型開源社區(qū),致力給開發(fā)者提供模型即服務(wù)的體驗。魔搭社區(qū)利用NVIDIA TensorRT-LLM,大大提高了大語言模型的推理性能,方便了模型應(yīng)用部署,
    的頭像 發(fā)表于 08-23 15:48 ?962次閱讀

    英偉達(dá)推出全新NVIDIA AI Foundry服務(wù)和NVIDIA NIM推理微服務(wù)

    NVIDIA 宣布推出全新 NVIDIA AI Foundry 服務(wù)和 NVIDIA NIM 推理微服務(wù),與同樣剛推出的 Llama 3.1 系列開源模型一起,為全球企業(yè)的生成式 AI
    的頭像 發(fā)表于 07-25 09:48 ?994次閱讀

    LLM大模型推理加速的關(guān)鍵技術(shù)

    LLM(大型語言模型)大模型推理加速是當(dāng)前人工智能領(lǐng)域的一個研究熱點,旨在提高模型在處理復(fù)雜任務(wù)時的效率和響應(yīng)速度。以下是對LLM大模型推理加速關(guān)鍵技術(shù)的詳細(xì)探討,內(nèi)容
    的頭像 發(fā)表于 07-24 11:38 ?1630次閱讀

    MediaTek與NVIDIA TAO加速物聯(lián)網(wǎng)邊緣AI應(yīng)用發(fā)展

    在即將到來的COMPUTEX 2024科技盛會上,全球知名的芯片制造商MediaTek宣布了一項重要合作——NVIDIA的TAO(TensorRT Accelerated Optimizer)與其NeuroPilot SDK(
    的頭像 發(fā)表于 06-12 14:49 ?670次閱讀

    英偉達(dá)推出AI模型推理服務(wù)NVIDIA NIM

    英偉達(dá)近日宣布推出一項革命性的AI模型推理服務(wù)——NVIDIA NIM。這項服務(wù)極大地簡化AI模型部署過程,為全球的2800萬英偉達(dá)開發(fā)者提供前所未有的便利。
    的頭像 發(fā)表于 06-04 09:15 ?911次閱讀