女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

NVIDIA加速微軟最新的Phi-3 Mini開源語(yǔ)言模型

NVIDIA英偉達(dá)企業(yè)解決方案 ? 來源:NVIDIA英偉達(dá)企業(yè)解決方案 ? 2024-04-28 10:36 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

NVIDIA 宣布使用 NVIDIA TensorRT-LLM 加速微軟最新的 Phi-3 Mini 開源語(yǔ)言模型。TensorRT-LLM 是一個(gè)開源庫(kù),用于優(yōu)化從 PC 到云端的 NVIDIA GPU 上運(yùn)行的大語(yǔ)言模型推理。

Phi-3 Mini 與 10 倍之于其大小的模型能力不相上下。不同于僅用于研究的 Phi-2,Phi-3 Mini 不僅可以用于研究,同時(shí)還可以用于多種商業(yè)用途。搭載 NVIDIA RTX GPU 的工作站或搭載 GeForce RTX GPU 的 PC 可以使用 Windows DirectML 或 TensorRT-LLM 在本地運(yùn)行該模型。

該模型有 38 億個(gè)參數(shù),在 512 個(gè) NVIDIA Tensor Core GPU 上使用 3.3 萬(wàn)億個(gè) token 訓(xùn)練而成,僅耗時(shí)七天時(shí)間。

Phi-3 Mini 有兩個(gè)版本,一個(gè)版本支持 4K token,另一個(gè)版本支持 128K token,是同類模型中第一個(gè)支持超長(zhǎng)上下文的模型。因此,開發(fā)者在向該模型提問時(shí),可以使用 128,000 個(gè) token(模型能夠處理的最小語(yǔ)言單位),使模型能夠做出更加符合現(xiàn)實(shí)的回答。

開發(fā)者可以在 ai.nvidia.com上試用帶有 128K 上下文窗口的 Phi-3 Mini。該模型被打包成 NVIDIA NIM,這是一項(xiàng)帶有標(biāo)準(zhǔn)應(yīng)用編程接口的微服務(wù),可以部署在任何位置。

在邊緣高效運(yùn)行

自主機(jī)器人和嵌入式設(shè)備開發(fā)者可以通過社區(qū)教程(如 Jetson AI Lab)學(xué)習(xí)創(chuàng)建和部署生成式 AI,并在 NVIDIA Jetson 上部署 Phi-3。

Phi-3 Mini 模型只有 38 億個(gè)參數(shù),非常小巧緊湊,可以在邊緣設(shè)備上高效運(yùn)行。參數(shù)就像內(nèi)存中的旋鈕,可在模型訓(xùn)練過程中進(jìn)行精確的調(diào)整,使模型能夠?qū)斎氲奶崾咀龀龈叨葴?zhǔn)確的響應(yīng)。

Phi-3 可以在成本和資源受限的用例中提供幫助,尤其是較簡(jiǎn)單的任務(wù)。該模型在關(guān)鍵語(yǔ)言基準(zhǔn)測(cè)試中的表現(xiàn)優(yōu)于一些較大的模型,同時(shí)在滿足延遲要求的情況下給出結(jié)果。

TensorRT-LLM 將支持 Phi-3 Mini 的長(zhǎng)上下文窗口,并使用 LongRoPE、FP8/飛行批處理等眾多優(yōu)化措施和內(nèi)核來提高推理吞吐量,減少延遲。TensorRT-LLM 的應(yīng)用很快將在 GitHub 上的示例文件夾中提供。

開發(fā)者可以轉(zhuǎn)換為 TensorRT-LLM 檢查點(diǎn)格式,該格式針對(duì)推理進(jìn)行了優(yōu)化,可以輕松地與 NVIDIA Triton 推理服務(wù)器一起部署。

開發(fā)開放式系統(tǒng)

NVIDIA 是開源生態(tài)系統(tǒng)的積極貢獻(xiàn)者,已經(jīng)發(fā)布了 500 多個(gè)帶有開源許可證的項(xiàng)目。

NVIDIA 為 JAX、Kubernetes、OpenUSD、PyTorch 和 Linux 內(nèi)核等眾多外部項(xiàng)目做出了貢獻(xiàn),還為各種開源基金會(huì)和標(biāo)準(zhǔn)機(jī)構(gòu)提供支持。

此次發(fā)布建立在 NVIDIA 與微軟深厚的合作基礎(chǔ)上,雙方的合作為加速 DirectML、Azure 云、生成式 AI 研究以及醫(yī)療和生命科學(xué)等領(lǐng)域的創(chuàng)新鋪平了道路。



審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器人
    +關(guān)注

    關(guān)注

    213

    文章

    29733

    瀏覽量

    212843
  • NVIDIA
    +關(guān)注

    關(guān)注

    14

    文章

    5309

    瀏覽量

    106364
  • 嵌入式設(shè)備
    +關(guān)注

    關(guān)注

    0

    文章

    116

    瀏覽量

    17419
  • GPU芯片
    +關(guān)注

    關(guān)注

    1

    文章

    305

    瀏覽量

    6198
  • 大模型
    +關(guān)注

    關(guān)注

    2

    文章

    3140

    瀏覽量

    4064

原文標(biāo)題:小巧而強(qiáng)大:NVIDIA 加速微軟 Phi-3 開源“小語(yǔ)言模型”

文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    NVIDIA RTX AI加速FLUX.1 Kontext現(xiàn)已開放下載

    NVIDIA RTX 與 NVIDIA TensorRT 現(xiàn)已加速 Black Forest Labs 的最新圖像生成和編輯模型;此外,Gemma
    的頭像 發(fā)表于 07-16 09:16 ?184次閱讀

    歐洲借助NVIDIA Nemotron優(yōu)化主權(quán)大語(yǔ)言模型

    NVIDIA 正攜手歐洲和中東的模型構(gòu)建商與云提供商,共同優(yōu)化主權(quán)大語(yǔ)言模型 (LLM),加速該地區(qū)各行業(yè)采用企業(yè)級(jí) AI。
    的頭像 發(fā)表于 06-12 15:42 ?420次閱讀

    NVIDIA攜手微軟加速代理式AI發(fā)展

    代理式 AI 正在重新定義科學(xué)探索,推動(dòng)各行各業(yè)的研究突破和創(chuàng)新發(fā)展。NVIDIA微軟正通過深化合作提供先進(jìn)的技術(shù),從云到 PC 加速代理式 AI 應(yīng)用的發(fā)展。
    的頭像 發(fā)表于 05-27 14:03 ?355次閱讀

    NVIDIA使用Qwen3系列模型的最佳實(shí)踐

    阿里巴巴近期發(fā)布了其開源的混合推理大語(yǔ)言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源
    的頭像 發(fā)表于 05-08 11:45 ?1240次閱讀
    <b class='flag-5'>NVIDIA</b>使用Qwen<b class='flag-5'>3</b>系列<b class='flag-5'>模型</b>的最佳實(shí)踐

    Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺(tái),加速企業(yè)人工智能應(yīng)用

    -Cognizant將與NVIDIA合作部署神經(jīng)人工智能平臺(tái),加速企業(yè)人工智能應(yīng)用 Cognizant將在關(guān)鍵增長(zhǎng)領(lǐng)域提供解決方案,包括企業(yè)級(jí)AI智能體、定制化行業(yè)大型語(yǔ)言模型及搭載
    的頭像 發(fā)表于 03-26 14:42 ?313次閱讀
    Cognizant將與<b class='flag-5'>NVIDIA</b>合作部署神經(jīng)人工智能平臺(tái),<b class='flag-5'>加速</b>企業(yè)人工智能應(yīng)用

    NVIDIA Isaac GR00T N1開源人形機(jī)器人基礎(chǔ)模型+開源物理引擎Newton加速機(jī)器人開發(fā)

    NVIDIA Isaac GR00T N1開源人形機(jī)器人基礎(chǔ)模型+開源物理引擎Newton加速機(jī)器人開發(fā)
    的頭像 發(fā)表于 03-20 16:56 ?785次閱讀

    英偉達(dá)GTC25亮點(diǎn):NVIDIA Dynamo開源庫(kù)加速并擴(kuò)展AI推理模型

    DeepSeek-R1 上的吞吐量提高了 30 倍 NVIDIA 發(fā)布了開源推理軟件 NVIDIA Dynamo,旨在以高效率、低成本加速并擴(kuò)展 AI 工廠中的 AI 推理
    的頭像 發(fā)表于 03-20 15:03 ?647次閱讀

    NVIDIA 發(fā)布全球首個(gè)開源人形機(jī)器人基礎(chǔ)模型 Isaac GR00T N1——并推出加速機(jī)器人開發(fā)的仿真框架

    推出完全可定制的 GR00T N1 基礎(chǔ)模型,為人形機(jī)器人賦予通用技能與推理技能 NVIDIA、Google DeepMind 和 Disney Research 合作開發(fā)新一代開源物理引擎
    發(fā)表于 03-19 09:30 ?442次閱讀
    <b class='flag-5'>NVIDIA</b> 發(fā)布全球首個(gè)<b class='flag-5'>開源</b>人形機(jī)器人基礎(chǔ)<b class='flag-5'>模型</b> Isaac GR00T N1——并推出<b class='flag-5'>加速</b>機(jī)器人開發(fā)的仿真框架

    在算力魔方上本地部署Phi-4模型

    智能水平上的一大飛躍。它不僅達(dá)到了之前只有Llama 3.1 405B模型才具備的智能水平,而且還超越了11月發(fā)布的GPT-4o模型。 本文我們將分享微軟剛剛發(fā)布的Phi-4
    的頭像 發(fā)表于 01-15 11:05 ?499次閱讀
    在算力魔方上本地部署<b class='flag-5'>Phi</b>-4<b class='flag-5'>模型</b>

    NVIDIA推出開放式Llama Nemotron系列模型

    作為 NVIDIA NIM 微服務(wù),開放式 Llama Nemotron 大語(yǔ)言模型和 Cosmos Nemotron 視覺語(yǔ)言模型可在任何
    的頭像 發(fā)表于 01-09 11:11 ?746次閱讀

    微軟尋求在365 Copilot中引入非OpenAI模型

    擔(dān)心企業(yè)用戶在使用365 Copilot時(shí)面臨的成本和速度問題,因此正在尋求更多樣化的技術(shù)來源。盡管微軟與OpenAI之間有著緊密的合作關(guān)系,并允許微軟定制OpenAI的模型,但微軟
    的頭像 發(fā)表于 12-25 10:41 ?610次閱讀

    使用NVIDIA TensorRT提升Llama 3.2性能

    Llama 3.2 模型集擴(kuò)展了 Meta Llama 開源模型集的模型陣容,包含視覺語(yǔ)言模型
    的頭像 發(fā)表于 11-20 09:59 ?798次閱讀

    搭建開源語(yǔ)言模型服務(wù)的方法

    本文我們將總結(jié)5種搭建開源語(yǔ)言模型服務(wù)的方法,每種都附帶詳細(xì)的操作步驟,以及各自的優(yōu)缺點(diǎn)。
    的頭像 發(fā)表于 10-29 09:17 ?690次閱讀

    NVIDIA NIM助力企業(yè)高效部署生成式AI模型

    Canonical、Nutanix 和 Red Hat 等廠商的開源 Kubernetes 平臺(tái)集成了 NVIDIA NIM,將允許用戶通過 API 調(diào)用來大規(guī)模地部署大語(yǔ)言模型
    的頭像 發(fā)表于 10-10 09:49 ?765次閱讀

    在英特爾酷睿Ultra7處理器上優(yōu)化和部署Phi-3-min模型

    2024年4月23日,微軟研究院公布Phi-3系列AI大模型,包含三個(gè)版本:mini(3.8B參數(shù))、small(7B參數(shù))以及medium(14B參數(shù))。
    的頭像 發(fā)表于 08-30 16:58 ?1367次閱讀
    在英特爾酷睿Ultra7處理器上優(yōu)化和部署<b class='flag-5'>Phi-3</b>-min<b class='flag-5'>模型</b>