女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

在openEuler上基于vLLM Ascend部署Qwen3

開放原子 ? 來源:開放原子 ? 2025-05-07 14:44 ? 次閱讀

近日,阿里巴巴正式發布新一代Qwen大語言模型系列(Qwen3與Qwen3-MoE),在模型規模與性能上實現多方面升級。openEuler社區團隊與vLLM社區通力合作,在第一時間完成Qwen3模型驗證。目前,開發者可以基于OpenAtom openEuler(簡稱“openEuler”)和vLLM在昇騰設備上完成 Qwen3 推理。

7e9ed7b2-24e2-11f0-9310-92fbcf53809c.png

新一代Qwen大語言模型主要包含2個版本:

?Qwen3,包括Qwen3-0.6B、Qwen3-1.7B、Qwen3-4B、Qwen3-8B

?Qwen3-MoE,包括Qwen3-MoE-15B-A2B、Qwen3-30B-A3B、Qwen3-235B-A22B

早在4月中旬,vLLM發布的v0.8.4版本中已經包括對Qwen3最新結構的支持。隨即,vLLM社區的vLLM Ascend團隊同步發布了v0.8.4rc1版本,并完成了跟進和適配。在該版本中,openEuler成為上游默認支持的操作系統之一,同步發布容器鏡像。

Qwen3發布后,openEuler社區與vLLM社區通力合作,在第一時間完成Qwen3模型驗證,這意味著開發者現在就可以一鍵拉起基于openEuler的vLLM-Ascend容器鏡像在昇騰設備上實現Qwen3的推理。

快速體驗Qwen3

體驗之前,您需確認固件/驅動已正確安裝,可運行如下命令確認:

npu-smi info

您可以使用如下命令,一鍵拉起基于openEuler的vLLM-Ascend容器鏡像:

# Update DEVICE according to your device (/dev/davinci[0-7])
exportDEVICE=/dev/davinci0
# Update the openeuler-vllm-ascend image
exportIMAGE=quay.io/ascend/vllm-ascend:v0.8.4rc2-openeuler
docker run --rm
--name openeuler-vllm-ascend 
--device$DEVICE
--device /dev/davinci_manager 
--device /dev/devmm_svm 
--device /dev/hisi_hdc 
-v /usr/local/dcmi:/usr/local/dcmi 
-v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi 
-v /usr/local/Ascend/driver/lib64/:/usr/local/Ascend/driver/lib64/ 
-v /usr/local/Ascend/driver/version.info:/usr/local/Ascend/driver/version.info 
-v /etc/ascend_install.info:/etc/ascend_install.info 
-v /root/.cache:/root/.cache 
-p 8000:8000 
-it$IMAGEbash

進入容器環境后,使用ModelScope平臺進行下載加速:

exportVLLM_USE_MODELSCOPE=true

在線推理

您可以使用vLLM和vLLM Ascend一鍵部署在線推理服務:

vllmserve Qwen/Qwen3-8B

服務啟動后,您可以通過curl請求來進行內容生成:

curl http://localhost:8000/v1/completions 
-H"Content-Type: application/json"
-d '{"model":"Qwen/Qwen3-8B","prompt":"The future of AI is","max_tokens":5, "temperature":0}'|python3-m json.tool

離線推理

您可以使用vLLM和vLLM Ascend進行離線推理。

以下是example.py的示例:

fromvllmimportLLM, SamplingParams
prompts = [
 "Hello, my name is",
 "The future of AI is",]
# Create a sampling params object.
sampling_params = SamplingParams(temperature=0.8, top_p=0.95)
# Create an LLM.
llm = LLM(model="Qwen/Qwen3-8B")
# Generate texts from the prompts.
outputs = llm.generate(prompts, sampling_params)
foroutputinoutputs:
  prompt = output.prompt
  generated_text = output.outputs[0].text
 print(f"Prompt:{prompt!r}, Generated text:{generated_text!r}")

運行以上腳本即可使用vLLM和vLLM Ascend進行推理:

#exportVLLM_USE_MODELSCOPE=trueto speed up downloadifhuggingface is not reachable.
python example.py

推理結果如下圖所示:

7eb22d3a-24e2-11f0-9310-92fbcf53809c.png

問題反饋

若您在openEuler上部署與運行Qwen3時遇到任何問題,可在openEuler官方論壇【Qwen3 on openEuler】問題收集與討論專帖下面進行反饋。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 操作系統
    +關注

    關注

    37

    文章

    7082

    瀏覽量

    124941
  • 模型
    +關注

    關注

    1

    文章

    3486

    瀏覽量

    49988
  • 昇騰
    +關注

    關注

    1

    文章

    155

    瀏覽量

    6884
  • openEuler
    +關注

    關注

    2

    文章

    325

    瀏覽量

    6240

原文標題:搶先體驗!在openEuler上基于vLLM Ascend部署Qwen3

文章出處:【微信號:開放原子,微信公眾號:開放原子】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦
    熱點推薦

    Intel OpenVINO? Day0 實現阿里通義 Qwen3 快速部署

    本文將以 Qwen3-8B 為例,介紹如何利用 OpenVINO 的 Python API 英特爾平臺(GPU, NPU)Qwen3 系列模型。
    的頭像 發表于 05-11 11:36 ?635次閱讀
    Intel OpenVINO? Day0 實現阿里通義 <b class='flag-5'>Qwen3</b> 快速<b class='flag-5'>部署</b>

    NVIDIA使用Qwen3系列模型的最佳實踐

    阿里巴巴近期發布了其開源的混合推理大語言模型 (LLM) 通義千問 Qwen3,此次 Qwen3 開源模型系列包含兩款混合專家模型 (MoE),235B-A22B(總參數 2,350 億,激活參數
    的頭像 發表于 05-08 11:45 ?753次閱讀
    NVIDIA使用<b class='flag-5'>Qwen3</b>系列模型的最佳實踐

    使用 Canonical MAAS 部署 openEuler 測試

    云、HPC 場景時,使用MAAS 是減少運維成本的最佳選擇之一。本文的測試 中,展示了如何通過Packer 為 MAAS 構建 openEuler 映像并驗證MAAS部署,可使用的臨時解決方法以及如
    發表于 08-24 11:43

    一次 Rancher 和 openEuler云之旅

    22.03 LTSRancherv2.6.8K3sv1.24.4+k3s1RKE2v1.24.4+rke2r1構建 openEuler AMIopenEuler Cloud Image 這方面還不夠完善,目前主要提供
    發表于 09-29 10:57

    壁仞科技完成阿里巴巴通義千問Qwen3全系列模型支持

    Qwen3部署成本大幅下降 Qwen3包括兩款混合專家(MoE)模型Qwen3-235B-A22B和Qwen3-30B-A3B;同時還包括
    的頭像 發表于 04-30 15:19 ?541次閱讀

    新:小米首個推理大模型開源 馬斯克:下周推出Grok 3.5

    似乎國內外AI競爭日趨白熱化,就在阿里巴巴發布Qwen3(通義千問3)之后,引發業界廣泛關注;很多大廠在跟進,大模型不斷新: 阿里巴巴開源新一代通義千問模型Qwen3 4月29日凌晨
    的頭像 發表于 04-30 16:08 ?655次閱讀

    幾B都有!BM1684X一鍵適配全系列Qwen3

    Qwen3發布,大小尺寸通吃Qwen3一發布,登頂開源大模型排行榜!235B、32B、8B、4B、1.7B云邊端全尺寸模型,BF16和FP8兩種精度,一次性發布,無論云端大卡還是邊緣AI設備,都可
    的頭像 發表于 04-30 18:37 ?337次閱讀
    幾B都有!BM1684X一鍵適配全系列<b class='flag-5'>Qwen3</b>

    中科曙光DeepAI深算智能引擎全面支持Qwen3

    日前,Qwen3正式發布并全部開源8款混合推理模型。作為Qwen系列中的最新一代大型語言模型,Qwen3推理、指令遵循、工具調用、多語言能力等方面實現全面增強。
    的頭像 發表于 05-06 15:17 ?380次閱讀

    摩爾線程GPU率先支持Qwen3全系列模型

    近日,阿里云正式發布Qwen3系列的8款開源混合推理模型。摩爾線程團隊模型發布當天,率先完成了Qwen3全系列模型全功能GPU的高效支
    的頭像 發表于 05-07 15:24 ?322次閱讀

    寒武紀率先支持Qwen3全系列模型

    近日,阿里Qwen團隊一口氣上新8大模型,Qwen3正式發布并全部開源。
    的頭像 發表于 05-07 15:51 ?248次閱讀

    后摩智能NPU適配通義千問Qwen3系列模型

    近日,阿里云重磅推出Qwen3 系列開源混合推理模型。用時不到1天,后摩智能自研NPU迅速實現Qwen3 系列模型(Qwen3 0.6B-14B)端邊側的高效
    的頭像 發表于 05-07 16:46 ?344次閱讀

    MediaTek天璣9400率先完成阿里Qwen3模型部署

    通義大模型團隊天璣 9400 旗艦移動平臺上率先完成 Qwen3(千問 3)的端側部署。未來,搭載天璣 9400 移動平臺的設備可充分發揮端側 AI 性能潛力,運行千問
    的頭像 發表于 05-08 10:11 ?333次閱讀

    NVIDIA RTX 5880 Ada與Qwen3系列模型實測報告

    近日,阿里巴巴通義千問團隊正式推出新一代開源大語言模型——Qwen3 系列,該系列包含 6 款 Dense 稠密模型和 2 款 MoE 混合專家模型,參數規模覆蓋 0.6B 至 235B,構建了覆蓋
    的頭像 發表于 05-09 15:05 ?592次閱讀
    NVIDIA RTX 5880 Ada與<b class='flag-5'>Qwen3</b>系列模型實測報告

    Arm CPU適配通義千問Qwen3系列模型

    與阿里巴巴開源的輕量級深度學習框架 MNN 已深度集成。得益于此,Qwen3-0.6B、Qwen3-1.7B 及 Qwen3-4B 三款模型能夠搭載 Arm 架構 CPU 的移動設
    的頭像 發表于 05-12 16:37 ?417次閱讀

    壁仞科技完成Qwen3旗艦模型適配

    近日,高效適配Qwen3系列模型推理后,壁仞科技宣布完成旗艦版Qwen3-235B-A22B模型的訓練適配和優化。由此,壁仞科技已實現Qwen3系列模型
    的頭像 發表于 05-16 16:23 ?259次閱讀