女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

RTX AI PC和工作站提供強(qiáng)大AI性能

NVIDIA英偉達(dá) ? 來(lái)源:NVIDIA英偉達(dá) ? 2024-08-23 16:57 ? 次閱讀

由 NVIDIA RTX 和 GeForce RTX 技術(shù)驅(qū)動(dòng)的 AI PC 時(shí)代已經(jīng)到來(lái)。在這一背景下,一種評(píng)估 AI 加速性能的新方法應(yīng)運(yùn)而生,同時(shí)還帶來(lái)了一套新術(shù)語(yǔ),這套術(shù)語(yǔ)成了用戶選擇臺(tái)式電腦和筆記本電腦的參考標(biāo)準(zhǔn)。

雖然 PC 游戲玩家了解每秒幀數(shù)(FPS)及類似的統(tǒng)計(jì)數(shù)據(jù),但衡量 AI 性能需要新的指標(biāo)。

TOPS 脫穎而出

TOPS,即每秒萬(wàn)億次運(yùn)算是首要的基準(zhǔn)指標(biāo)。“萬(wàn)億”是這里的關(guān)鍵詞:生成式 AI 任務(wù)背后的處理運(yùn)算量是巨大的。您可以將 TOPS 視為原始性能指標(biāo),類似于發(fā)動(dòng)機(jī)的額定功率。這個(gè)數(shù)值自然是越大越好。

例如,比較一下微軟最近發(fā)布的 Windows 11 AI PC,其中就包含每秒至少可執(zhí)行 40 萬(wàn)億次運(yùn)算的神經(jīng)處理單元(NPU)。40 TOPS 的算力足以勝任一些輕量級(jí) AI 輔助任務(wù),例如詢問本地聊天機(jī)器人昨天的筆記在哪里。

但許多生成式 AI 的算力需求遠(yuǎn)不止于此。NVIDIA RTX 和 GeForce RTX GPU 可在所有生成式任務(wù)中提供卓越的性能,其中 GeForce RTX 4090 GPU 的算力可達(dá) 1177 TOPS。這就是處理 AI 輔助數(shù)字內(nèi)容創(chuàng)作(DCC)、PC 游戲 AI 超分辨率、根據(jù)文本或視頻生成圖像、與本地大語(yǔ)言模型(LLM)交互等任務(wù)所需的算力。

以 Token 衡量性能

TOPS 只是一項(xiàng)基礎(chǔ)衡量指標(biāo)。LLM 的性能以模型生成的 Token 數(shù)量來(lái)衡量。

Token 是 LLM 的輸出,它可以是句子中的一個(gè)詞,甚至可以是標(biāo)點(diǎn)符號(hào)或空格這類更小的片段。AI 加速任務(wù)的性能可以用“每秒 Token 數(shù)”來(lái)衡量。

另一個(gè)重要因素則是 batch size,也就是在一次推理過(guò)程中可同時(shí)處理的輸入數(shù)量。由于大語(yǔ)言模型(LLM)是許多現(xiàn)代 AI 系統(tǒng)的核心,處理多個(gè)輸入(例如來(lái)自單個(gè)應(yīng)用或跨多個(gè)應(yīng)用)的能力將成為關(guān)鍵的差異化因素。雖然較大的 batch size 可以提升并發(fā)輸入的性能,但也需要占用更多的內(nèi)存,尤其是運(yùn)行較大的模型時(shí)。

RTX GPU 非常適合 LLM,因?yàn)樗鼈儞碛写罅繉S玫娘@存(VRAM)、Tensor Core 和 TensorRT-LLM 軟件。

GeForce RTX GPU 最多可提供 24GB 的高速 VRAM,而 NVIDIA RTX GPU 最多可提供 48GB 的高速 VRAM,可支持更大的模型和更大的 batch size。RTX GPU 還可利用 Tensor Core,這是一種專用的 AI 加速器,可顯著加速深度學(xué)習(xí)和生成式 AI 模型中的計(jì)算密集型運(yùn)算。應(yīng)用在使用 NVIDIA TensorRT 軟件開發(fā)套件(SDK)的情況下可輕松實(shí)現(xiàn)超高性能。該套件可在超過(guò) 1 億臺(tái)由 RTX GPU 驅(qū)動(dòng)的 Windows PC 和工作站上解鎖超高性能生成式 AI。

結(jié)合了大顯存、專用 AI 加速器和優(yōu)化的軟件,RTX GPU 的吞吐量得到了巨大提升,尤其是在 batch size 增加的情況下。

文本生圖像,速度超以往

測(cè)量圖像生成速度是評(píng)估性能的另一種方法。最直接的一個(gè)方法是使用 Stable Diffusion,這是一種基于圖像的熱門 AI 模型,可讓用戶輕松地將文本描述轉(zhuǎn)換為復(fù)雜的視覺畫面。

借由 Stable Diffusion,用戶可以通過(guò)輸入關(guān)鍵詞快速獲得想要的圖像相比于 CPU 或 NPU,使用 RTX GPU 運(yùn)行 AI 模型時(shí)可以更快生成所需結(jié)果。

在熱門的 Automatic1111 界面使用 TensorRT 擴(kuò)展程序時(shí),相應(yīng)性能表現(xiàn)甚至?xí)谩=柚?SDXL 模型,RTX 用戶通過(guò)提示生成圖像的速度至多可提升至原來(lái)的 2 倍,這可大幅簡(jiǎn)化 Stable Diffusion 工作流。

另一個(gè)熱門的 Stable Diffusion 用戶界面 ComfyUI 在上周也支持了 TensorRT 加速。現(xiàn)在,RTX 用戶文生圖的速度可提升多達(dá) 60%。RTX 用戶還可使用 Stable Video Diffusion 將這些圖像轉(zhuǎn)換為視頻,在 TensorRT 的助力下,轉(zhuǎn)換速度甚至可提升多達(dá) 70%。

全新的 UL Procyon AI 圖像生成基準(zhǔn)測(cè)試現(xiàn)已支持 TensorRT 加速。與最快的非 TensorRT 加速狀態(tài)相比,TensorRT 加速可在 GeForce RTX 4080 SUPER GPU 上帶來(lái) 50% 的速度提升。

適用于 Stable Diffusion 3 的 TensorRT 加速近期發(fā)布,前者是 Stability AI 備受期待的全新文本轉(zhuǎn)圖像模型。此外,全新的 TensorRT-Model Optimizer 可進(jìn)一步提升性能。與非 TensorRT 加速狀態(tài)相比,它可帶來(lái)顯著的速度提升,同時(shí)減少顯存消耗。

當(dāng)然,眼見方能為實(shí)。真正的考驗(yàn)來(lái)自于不斷迭代提示詞這種真實(shí)場(chǎng)景。在 RTX GPU 上,用戶通過(guò)改進(jìn)提示詞來(lái)優(yōu)化圖像的速度可得到顯著提升,每次迭代只需數(shù)秒即可完成。而在 Macbook Pro M3 Max 上,完成相同的迭代需要耗費(fèi)數(shù)分鐘。此外,如果在由 RTX 驅(qū)動(dòng)的 PC 或工作站上本地運(yùn)行,用戶可以同時(shí)享受到速度和安全性方面的優(yōu)勢(shì),并讓所有內(nèi)容保持私密。

測(cè)試結(jié)果出爐,相關(guān)技術(shù)開源

不過(guò),且不要僅聽我們的一面之詞。開源的 Jan.ai 背后的 AI 研究人員和工程師團(tuán)隊(duì)最近將 TensorRT-LLM 集成到了其本地聊天機(jī)器人應(yīng)用中,然后親自測(cè)試了這些優(yōu)化效果。

研究人員在社區(qū)使用的各種 GPU 和 CPU 上,以開源的 llama.cpp 推理引擎為對(duì)照,測(cè)試了 TensorRT-LLM 的實(shí)際表現(xiàn)。他們發(fā)現(xiàn) TensorRT“在相同硬件上比 llama.cpp 快 30-70%”,并且在進(jìn)行連續(xù)處理時(shí)效率更高。該團(tuán)隊(duì)還提供了測(cè)試方法,邀請(qǐng)其他人親自測(cè)試生成式 AI 的性能。

無(wú)論是游戲還是生成式 AI,速度才是其致勝法寶。在確定性能冠軍時(shí),TOPS、每秒 Token 數(shù)和 batch size 均需納入考量。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5238

    瀏覽量

    105766
  • PC
    PC
    +關(guān)注

    關(guān)注

    9

    文章

    2143

    瀏覽量

    156036
  • 內(nèi)存
    +關(guān)注

    關(guān)注

    8

    文章

    3108

    瀏覽量

    74984
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    34182

    瀏覽量

    275341

原文標(biāo)題:解碼 RTX AI PC 和工作站上的 AI 性能

文章出處:【微信號(hào):NVIDIA_China,微信公眾號(hào):NVIDIA英偉達(dá)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    潤(rùn)開鴻推出基于OpenHarmony的桌面操作系統(tǒng)及AI PC工作站

    股份有限公司旗下子公司江蘇潤(rùn)開鴻數(shù)字科技有限公司(以下簡(jiǎn)稱“潤(rùn)開鴻”)受邀出席,并重磅發(fā)布基于OpenHarmony的HiHopeOS桌面操作系統(tǒng)及AI PC工作站軟、硬件新品,以創(chuàng)新技術(shù)共筑中國(guó)電腦產(chǎn)業(yè)未來(lái)。
    的頭像 發(fā)表于 06-03 16:25 ?88次閱讀

    英特爾發(fā)布全新GPU,AI工作站迎來(lái)新選擇

    Pro B50 GPU,搭載了為AI推理和專業(yè)工作站量身定制的配置,擴(kuò)展了英特爾銳炫Pro產(chǎn)品系列。 英特爾 ? Gaudi 3 AI 加速器: 英特爾Gaud
    發(fā)表于 05-20 11:03 ?1454次閱讀

    首創(chuàng)開源架構(gòu),天璣AI開發(fā)套件讓端側(cè)AI模型接入得心應(yīng)手

    Studio提供了最優(yōu)解。Neuron Studio可針對(duì)模型到應(yīng)用,提供式、全鏈路、自動(dòng)化的開發(fā)協(xié)助,不僅讓AI應(yīng)用開發(fā)的全流程可視化,更帶來(lái)整個(gè)多種工具的一
    發(fā)表于 04-13 19:52

    NVIDIA Blackwell RTX PRO 提供工作站和服務(wù)器兩種規(guī)格,助力設(shè)計(jì)師、開發(fā)者、數(shù)據(jù)科學(xué)家和創(chuàng)作人員構(gòu)建代理式

    月 18 日 —— NVIDIA 今日發(fā)布了 NVIDIA RTX PRO? Blackwell 系列工作站和服務(wù)器 GPU,通過(guò)突破性的加速計(jì)算、AI 推理、光線追蹤和神經(jīng)渲染技術(shù),重新定義
    發(fā)表于 03-19 09:50 ?206次閱讀
    NVIDIA Blackwell <b class='flag-5'>RTX</b> PRO <b class='flag-5'>提供</b><b class='flag-5'>工作站</b>和服務(wù)器兩種規(guī)格,助力設(shè)計(jì)師、開發(fā)者、數(shù)據(jù)科學(xué)家和創(chuàng)作人員構(gòu)建代理式

    工業(yè)機(jī)器人工作站的建設(shè)意義

    其他輔助設(shè)備的配合,形成了一套完整的自動(dòng)化生產(chǎn)流程。桐爾作為專業(yè)的自動(dòng)化解決方案提供商,致力于通過(guò)工業(yè)機(jī)器人工作站的建設(shè),為企業(yè)帶來(lái)顯著的經(jīng)濟(jì)效益和生產(chǎn)效率提升。 工業(yè)機(jī)器人工作站的建立首先能夠顯著
    發(fā)表于 03-17 14:49

    快速升級(jí)DELL與HP工作站儲(chǔ)存效能,實(shí)現(xiàn)高效工作流!

    。對(duì)于已配備超薄型光驅(qū)插槽位及PCIe插槽的HP工作站、Dell工作站,ICYDOCK可以提供創(chuàng)新的解決方案,幫助用戶有效率地提升存儲(chǔ)容量。可兼容的工作站型號(hào)HP
    的頭像 發(fā)表于 02-14 15:38 ?427次閱讀
    快速升級(jí)DELL與HP<b class='flag-5'>工作站</b>儲(chǔ)存效能,實(shí)現(xiàn)高效<b class='flag-5'>工作</b>流!

    NVIDIA推出面向RTX AI PCAI基礎(chǔ)模型

    NVIDIA 今日發(fā)布能在 NVIDIA RTX AI PC 本地運(yùn)行的基礎(chǔ)模型,為數(shù)字人、內(nèi)容創(chuàng)作、生產(chǎn)力和開發(fā)提供強(qiáng)大助力。
    的頭像 發(fā)表于 01-08 11:01 ?474次閱讀

    NVIDIA RTX AI Toolkit擁抱LoRA技術(shù)

    RTX AI PC工作站上使用最新版 RTX AI Toolkit 微調(diào) LLM,最高可
    的頭像 發(fā)表于 11-20 09:14 ?606次閱讀
    NVIDIA <b class='flag-5'>RTX</b> <b class='flag-5'>AI</b> Toolkit擁抱LoRA技術(shù)

    NVIDIA NIM在搭載RTX技術(shù)的AI工作站上的應(yīng)用

    AI 計(jì)算資源的需求正不斷增長(zhǎng)。從概念驗(yàn)證到企業(yè)部署需要針對(duì)生成性 AI 工作負(fù)載進(jìn)行優(yōu)化的強(qiáng)大計(jì)算基礎(chǔ)設(shè)施。同時(shí),AI 開發(fā)項(xiàng)目需要更多的
    的頭像 發(fā)表于 11-09 11:47 ?693次閱讀

    NVIDIA RTX AI套件簡(jiǎn)化AI驅(qū)動(dòng)的應(yīng)用開發(fā)

    NVIDIA 于近日發(fā)布 NVIDIA RTX AI套件,這一工具和 SDK 集合能夠幫助 Windows 應(yīng)用開發(fā)者定制、優(yōu)化和部署適用于 Windows 應(yīng)用的 AI 模型。該套件免費(fèi)提供
    的頭像 發(fā)表于 09-06 14:45 ?775次閱讀

    寧暢推出自驅(qū)式相變液冷AI工作站

    6月25日至6月27日,第五屆中國(guó)智算中心全棧技術(shù)大會(huì)暨中國(guó)數(shù)據(jù)中心綠色能源大會(huì)于上海召開。寧暢現(xiàn)場(chǎng)發(fā)布了自驅(qū)式相變液冷AI工作站,并發(fā)表了《人工智能服務(wù)器液冷設(shè)計(jì)典型特點(diǎn)及趨勢(shì)》主題演講。本次發(fā)布
    的頭像 發(fā)表于 07-01 16:26 ?986次閱讀

    AMD Radeon PRO W7900雙槽工作站顯卡發(fā)布上市

    的高性能平臺(tái)進(jìn)行了優(yōu)化,可為專業(yè)設(shè)計(jì)人員以及AI開發(fā)人員提供強(qiáng)大的,可擴(kuò)展的專業(yè)解決方案。 ? 其核心功能特性如下: 卓越的性能:配備了96
    的頭像 發(fā)表于 06-29 15:23 ?1076次閱讀

    技嘉推出全新AMD Radeon PRO W7000系列工作站顯卡

    隨著技術(shù)的不斷進(jìn)步,工作站顯卡在專業(yè)人士、創(chuàng)作者和AI開發(fā)人員中的需求日益增長(zhǎng)。為了滿足這一市場(chǎng)需求,技嘉于6月22日正式推出了全新的AMD Radeon PRO W7000系列工作站顯卡,兩款主力
    的頭像 發(fā)表于 06-22 11:51 ?1597次閱讀

    寧暢推出首款專業(yè)級(jí)AI桌面工作站W350 G50

    寧暢近日推出了其首款專業(yè)級(jí)AI桌面工作站W350 G50,此舉標(biāo)志著智算中心的概念已延伸至桌面端。這款工作站集成了NVIDIA RTX? Ada架構(gòu)GPU,為用戶
    的頭像 發(fā)表于 06-06 09:25 ?1043次閱讀

    NVIDIA推出用于支持在全新GeForce RTX AI筆記本電腦上運(yùn)行的AI助手及數(shù)字人

    RTX 支持的 AI 助手技術(shù)演示 Demo,可為 PC 游戲和應(yīng)用提供上下文感知幫助。G-Assist 項(xiàng)目的技術(shù) Demo 將首度亮相于 Studio Wildcard 推出的《
    的頭像 發(fā)表于 06-04 10:19 ?1184次閱讀