女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

OrangePi AI Studio運行Deepseek-R1蒸餾模型,開啟你的AI之旅

香橙派 ? 2025-02-11 10:15 ? 次閱讀

2025年蛇年春節(jié),DeepSeek強勢出圈,以十分之一的訓練成本比肩OpenAI GPT-4o的性能,重塑AI世界新秩序。DeepSeek向全世界開源,為全球的數(shù)據(jù)科學家、AI愛好者乃至中小開發(fā)者開辟了一條通往前沿技術的道路。

DeepSeek是一款集成多種AI技術的開發(fā)平臺,旨在為用戶提供高效、便捷的AI模型訓練、部署和應用服務。它支持自然語言處理(NLP)、計算機視覺(CV)、語音識別等多個領域的任務,還提供豐富的預訓練模型和工具,幫助用戶快速構建和優(yōu)化AI應用。

DeepSeek點燃了AI應用。今天,我們就給大家分享如何利用手中的設備運行Deepseek。我們所采用的設備是OrangePi AI Studio。

wKgZPGeqsHyALNbIAAL5MNGGlJI653.png

OrangePi AI Studio:高算力人工智能算力卡

OrangePi AI Studio采用昇騰AI技術路線,融合“ARM core,AI core,Vector core,Image core”于一體,提供“基礎通用算力+超強AI算力+編解碼核心”,充分滿足推訓一體AI任務需求,擁有48GB /96GB LPDDR4X,速率高達4266Mbps。

wKgZPGeqsH2AVsH9AAajDfrCWic698.png

OrangePi AI Studio匯聚了Type-C(USB4.0)、電源接口、電源按鍵、LED指示燈等,可廣泛應用于OCR識別、目標識別、人臉識別、搜索推薦、大模型多模態(tài)、內容審核、VR智能、數(shù)字醫(yī)療、物聯(lián)網等諸多AI應用場景。

OrangePi AI Studio當前支持Ubuntu22.04.5、內核linux5.15.0.126,即將支持Windows,滿足市場對于算力的強烈需求,降低用戶的學習成本、開發(fā)成本和運營成本。

實操指南:OrangePi AI Studio運行Deepseek

1.1硬件連接

使用USB4數(shù)據(jù)線連接opi ai studio和Ubuntu PC。開啟Ubuntu PC,參考用戶手冊中驅動安裝步驟安裝驅動。

正確連接opi ai studio和pc后,在pc開機狀態(tài)下,左右兩側指示燈常亮,中間指示燈閃爍。

wKgZPGeqsH6AfCaoAAxIFth9zOg172.png

1.2下載docker鏡像

1)首先在Ubuntu電腦中安裝下docker軟件,安裝完docker后如果使用docker -v命令能看到版本號說明安裝成功。

#apt update

#apt install -y docker.io

#docker -v

2)打開下面的鏈接,再點擊ATB-Models下載選項:

https://www.hiascend.com/developer/download/community/result?module=ie%2Bpt%2Bcann

wKgZPGeqsHyAHC5PAAMwVTINt70709.png

3)然后點擊鏡像版本中的1.0.0-300I-Duo-py311-openeuler24.03-lts對應的下載選項。

wKgZO2eqsHyAJxbFAAJroE04LI4339.png

4)點擊1.0.0-300I-Duo-py311-openeuler24.03-lts右側的立即下載后會顯示下面的安裝步驟:

wKgZPGeqsHyASfG_AAGAgh6T2WU449.png

a)使用root用戶運行下面的命令獲取登錄訪問權限,然后輸入密碼登錄。不同賬號看到的下載地址是不一樣的,按照實際獲取的信息填寫。

#docker login -u cn-south-1@ADW7CJ164S04NRFEELZP swr.cn-south-1.myhuaweicloud.com

Password:

WARNING! Your password will be stored unencrypted in /root/.docker/config.json.

Configure a credential helper to remove this warning. See

https://docs.docker.com/engine/reference/commandline/login/#credential-stores

Login Succeeded

b)然后下載鏡像即可。

#docker pull swr.cn-south-1.myhuaweicloud.com/ascendhub/mindie:1.0.0-300I-Duo-py311-openeuler24.03-lts

c)下載好的鏡像如下所示:

#docker images

REPOSITORY TAG IMAGE ID CREATED SIZE

swr.cn-south-1.myhuaweicloud.com/ascendhub/mindie 1.0.0-300I-Duo-py311-openeuler24.03-lts 74a5b9615370

3weeks ago 17.5GB

1.3 使用docker鏡像的方法

1)在任意位置創(chuàng)建一個名為start-docker.sh的啟動腳本,內容如下所示:

#vim start-docker.sh

IMAGES_ID=$1

NAME=$2

if [ $# -ne 2 ]; then

echo "error: need one argument describing your container name."

exit 1

fi

docker run --name ${NAME} -it -d --net=host --shm-size=500g \

--privileged=true \

-w /home \

--device=/dev/davinci_manager \

--device=/dev/hisi_hdc \

--device=/dev/devmm_svm \

--entrypoint=bash \

-v /models:/models \

-v /usr/local/Ascend/driver:/usr/local/Ascend/driver \

-v /usr/local/dcmi:/usr/local/dcmi \

-v /usr/local/bin/npu-smi:/usr/local/bin/npu-smi \

-v /usr/local/sbin:/usr/local/sbin \

-v /home:/home \

-v /tmp:/tmp \

-v /usr/share/zoneinfo/Asia/Shanghai:/etc/localtime \

-e http_proxy=$http_proxy \

-e https_proxy=$https_proxy \

${IMAGES_ID}

2)然后查看下docker鏡像的IMAGE ID。

#docker images

REPOSITORY TAG IMAGE ID CREATED SIZE

swr.cn-south-1.myhuaweicloud.com/ascendhub/mindie 1.0.0-300I-Duo-py311-openeuler24.03-lts 74a5b9615370

3weeks ago 17.5GB

3)然后依次執(zhí)行如下命令啟動并進入容器:

a.首先運行start-docker.sh腳本創(chuàng)建運行容器,此命令只需執(zhí)行一次。74a5b9615370是我們上一步中查詢到的docker鏡像ID,mindIE是我們自定義的容器名,可以自行更改,之后進入docker容器的時候需要使用這個名字。

#chmod +xstart-docker.sh

#bash start-docker.sh74a5b9615370deepseek

b.然后運行下面的命令進入容器命令行。

#docker exec -itdeepseekbash

1.4 DeepSeek-R1-Distill-Qwen-14B

1)依次執(zhí)行下面的命令,下載DeepSeek-R1-Distill-Qwen-14B模型權重,將其放到/models目錄下。如無法下載可參考國內模型網站使用方法一小節(jié)的方法通過國內模型網站下載。

#mkdir /models

#cd /models

#apt install -y git-lfs

#git clone--depth=1https://deepseek-ai/DeepSeek-R1-Distill-Qwen-14B

2)如果是32GB或32GB以下內存的電腦,需要加大內存交換分區(qū)的大小,不然轉換權重和執(zhí)行推理程序時會由于內存不夠而退出。這一步請在物理機上執(zhí)行,不支持在docker容器內執(zhí)行

#fallocate -l 64G /swap_model

#chmod 600 /swap_model

#mkswap /swap_model

#swapon /swap_model

#使用完成后可以使用下面的命令釋放空間

#swapoff /swap_model

#rm /swap_model

3)使用chown命令將/models/DeepSeek-R1-Distill-Qwen-14B目錄及其所有文件的所有者和組更改為root用戶和root組。

#chown root:root -R/models/DeepSeek-R1-Distill-Qwen-14B

4)推理DeepSeek-R1-Distill-Qwen-14B模型的命令如下所示:

#cd $ATB_SPEED_HOME_PATH

#torchrun --nproc_per_node 1 --master_port 20037 -m examples.run_pa --model_path /models/DeepSeek-R1-Distill-Qwen-14B/ --max_output_length 256

5)推理成功后,在輸出的最后,可以找到Question和Answer,結果如下所示:

wKgZO2eqsHyAcshrAACk-UQ85io331.png

6)純模型能夠正常推理后,我們修改mindie server配置。

#vim /usr/local/Ascend/mindie/latest/mindie-service/conf/config.json

"httpsEnabled" : false,

"npuDeviceIds" : [[0]],

"modelName" : "DeepSeek",

"modelWeightPath" : "/models/DeepSeek-R1-Distill-Qwen-14B",

"worldSize" :1,

7)我們需要先修改模型目錄下的config.json文件的權限為640,否則無法啟動server服務。

#chmod 640/models/DeepSeek-R1-Distill-Qwen-14B/config.json

8)執(zhí)行以下命令啟動MindIE Server服務,如果最后有如下的輸出,表示啟動成功。。

#cd /usr/local/Ascend/mindie/latest/mindie-service/bin

#./mindieservice_daemon

......

Daemon start success!

9)接著拉取聊天機器人案例代碼。

#git clone https://gitee.com/toolsmanhehe/chat_robot.git

10)安裝依賴。

#cd chat_robot

#pip3 install -r requirements.txt -i https://mirrors.huaweicloud.com/repository/pypi/simple

11)啟動聊天機器人demo程序。啟動后,會打印如下信息,復制其中的url到瀏覽器打開。

a)首先程序會自動查詢當前設備上MindIE中運行的模型信息,并打印出來。

b)如果提示暫不支持,請核對MindIE Server中的“modelName”字段。

c)然后等一會就會打印兩個ip地址。第一個url只能在啟動主程序的電腦上訪問,第二個url可以通過和啟動主程序的電腦同一網絡下的設備訪問。

# python3 main.py

檢測到mindie server中啟動了DeepSeek模型。

* Serving Flask app 'main'

* Debug mode: off

WARNING: This is a development server. Do not use it in a production deployment. Use a production WSGI server instead.

* Running on all addresses (0.0.0.0)

* Running on http://127.0.0.1:5000

* Running on http://10.31.3.139:5000

Press CTRL+C to quit

12)瀏覽器打開上面的鏈接后我們可以看到下面這個頁面,左側提供了一些問題,點擊可以直接提問。

wKgZO2eqsH2AQ74gAAcf6L5ofDs506.png

1.5 DeepSeek-R1-Distill-Qwen-1.5B

13)依次執(zhí)行下面的命令,下載DeepSeek-R1-Distill-Qwen-14B模型權重,將其放到/models目錄下。如無法下載可參考國內模型網站使用方法一小節(jié)的方法通過國內模型網站下載。

#mkdir /models

#cd /models

#apt install -y git-lfs

#git clone--depth=1https://deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B

14)如果是32GB或32GB以下內存的電腦,需要加大內存交換分區(qū)的大小,不然轉換權重和執(zhí)行推理程序時會由于內存不夠而退出。這一步請在物理機上執(zhí)行,不支持在docker容器內執(zhí)行

#fallocate -l 64G /swap_model

#chmod 600 /swap_model

#mkswap /swap_model

#swapon /swap_model

#使用完成后可以使用下面的命令釋放空間

#swapoff /swap_model

#rm /swap_model

15)使用chown命令將/models/DeepSeek-R1-Distill-Qwen-1.5B目錄及其所有文件的所有者和組更改為root用戶和root組。

#chown root:root -R/models/DeepSeek-R1-Distill-Qwen-1.5B

16)推理DeepSeek-R1-Distill-Qwen-14B模型的命令如下所示:

#cd $ATB_SPEED_HOME_PATH

#torchrun --nproc_per_node 1 --master_port 20037 -m examples.run_pa --model_path /models/DeepSeek-R1-Distill-Qwen-1.5B/ --max_output_length 256

17)推理成功后,在輸出的最后,可以找到Question和Answer,結果如下所示:

wKgZO2eqsHyAcshrAACk-UQ85io331.png

18)純模型能夠正常推理后,我們修改mindie server配置。

#vim /usr/local/Ascend/mindie/latest/mindie-service/conf/config.json

"httpsEnabled" : false,

"npuDeviceIds" : [[0]],

"modelName" : "DeepSeek",

"modelWeightPath" : "/models/DeepSeek-R1-Distill-Qwen-1.5B",

"worldSize" :1,

19)我們需要先修改模型目錄下的config.json文件的權限為640,否則無法啟動server服務。

#chmod 640/models/DeepSeek-R1-Distill-Qwen-1.5B/config.json

20)執(zhí)行以下命令啟動MindIE Server服務,如果最后有如下的輸出,表示啟動成功。。

#cd /usr/local/Ascend/mindie/latest/mindie-service/bin

#./mindieservice_daemon

......

Daemon start success!

21)接著拉取聊天機器人案例代碼。

#git clone https://gitee.com/toolsmanhehe/chat_robot.git

22)安裝依賴。

#cd chat_robot

#pip3 install -r requirements.txt -i https://mirrors.huaweicloud.com/repository/pypi/simple

23)啟動聊天機器人demo程序。啟動后,會打印如下信息,復制其中的url到瀏覽器打開。

a)首先程序會自動查詢當前設備上MindIE中運行的模型信息,并打印出來。

b)如果提示暫不支持,請核對MindIE Server中的“modelName”字段。

c)然后等一會就會打印兩個ip地址。第一個url只能在啟動主程序的電腦上訪問,第二個url可以通過和啟動主程序的電腦同一網絡下的設備訪問。

# python3 main.py

檢測到mindie server中啟動了DeepSeek模型。

* Serving Flask app 'main'

* Debug mode: off

WARNING: This is a development server. Do not use it in a production deployment. Use a production WSGI server instead.

* Running on all addresses (0.0.0.0)

* Running on http://127.0.0.1:5000

* Running on http://10.31.3.139:5000

Press CTRL+C to quit

24)瀏覽器打開上面的鏈接后我們可以看到下面這個頁面,左側提供了一些問題,點擊可以直接提問。

wKgZO2eqsH2AQ74gAAcf6L5ofDs506.png

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關注

    關注

    87

    文章

    34156

    瀏覽量

    275326
  • 開發(fā)板
    +關注

    關注

    25

    文章

    5500

    瀏覽量

    102174
  • orange pi
    +關注

    關注

    0

    文章

    38

    瀏覽量

    2966
  • DeepSeek
    +關注

    關注

    1

    文章

    772

    瀏覽量

    1324
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    香橙派發(fā)布OrangePi RV2本地部署Deepseek-R1蒸餾模型指南

    繼香橙派昇騰系列產品、OrangePi5系列產品完成與DeepSeek模型的深度適配之后,香橙派日前官方發(fā)布OrangePiRV2運行Deepsee
    的頭像 發(fā)表于 03-28 11:55 ?535次閱讀
    香橙派發(fā)布<b class='flag-5'>OrangePi</b> RV2本地部署<b class='flag-5'>Deepseek-R1</b><b class='flag-5'>蒸餾</b><b class='flag-5'>模型</b>指南

    如何使用OpenVINO運行DeepSeek-R1蒸餾模型

    DeepSeek-R1在春節(jié)期間引發(fā)了全球科技界的熱度,DeepSeek-R1 是由 DeepSeek 開發(fā)的開源推理模型,用于解決需要邏輯推理、數(shù)學問題解決和實時決策的任務。
    的頭像 發(fā)表于 03-12 13:45 ?1215次閱讀
    如何使用OpenVINO<b class='flag-5'>運行</b><b class='flag-5'>DeepSeek-R1</b><b class='flag-5'>蒸餾</b><b class='flag-5'>模型</b>

    RK3588開發(fā)板上部署DeepSeek-R1模型的完整指南

    DeepSeek作為國產AI大數(shù)據(jù)模型的代表,憑借其卓越的推理能力和高效的文本生成技術,在全球人工智能領域引發(fā)廣泛關注。DeepSeek-R1作為該系列最新迭代版本,實現(xiàn)了長文本處理效
    發(fā)表于 02-27 16:45

    Infinix AI接入DeepSeek-R1滿血版

    傳音控股旗下Infinix品牌正式宣布接入DeepSeek-R1滿血版,2月26日起支持XOS 14.5及以上版本的Infinix機型可通過升級使用,3月份將發(fā)布的全新NOTE系列也將接入DeepSeek-R1開啟“Infin
    的頭像 發(fā)表于 02-21 16:08 ?465次閱讀

    香橙派發(fā)布OrangePi 5Plus本地部署Deepseek-R1蒸餾模型指南

    派官方發(fā)布OrangePi5Plus運行Deepseek-R1蒸餾模型實操指南,趕緊收藏起來吧!Oran
    的頭像 發(fā)表于 02-19 16:14 ?991次閱讀
    香橙派發(fā)布<b class='flag-5'>OrangePi</b> 5Plus本地部署<b class='flag-5'>Deepseek-R1</b><b class='flag-5'>蒸餾</b><b class='flag-5'>模型</b>指南

    香橙派發(fā)布OrangePi AIpro(20T)本地部署Deepseek-R1蒸餾模型指南!

    日前,香橙派官方發(fā)布OrangePiAIpro(20T)運行Deepseek-R1蒸餾模型實操指南,幫助用戶通過先進算力和硬件架構實現(xiàn)高效的端側智能。OrangePiAIpro(20T
    的頭像 發(fā)表于 02-14 16:29 ?1055次閱讀
    香橙派發(fā)布<b class='flag-5'>OrangePi</b> AIpro(20T)本地部署<b class='flag-5'>Deepseek-R1</b><b class='flag-5'>蒸餾</b><b class='flag-5'>模型</b>指南!

    了解DeepSeek-V3 和 DeepSeek-R1兩個大模型的不同定位和應用選擇

    DeepSeek-V3 和 DeepSeek-R1 是深度求索公司(DeepSeek)推出的兩個不同定位的大模型,其核心差異主要體現(xiàn)在目標場景、能力側重和技術優(yōu)化方向上。以下是二者的實
    發(fā)表于 02-14 02:08

    IBM企業(yè)級AI開發(fā)平臺watsonx.ai上線DeepSeek R1蒸餾模型

    IBM日前宣布,DeepSeek-R1 的 Llama 3.1 8B 和 Llama 3.3 70b 蒸餾版本現(xiàn)已在 IBM 的企業(yè)級 AI 開發(fā)平臺 watsonx.ai 上提供。
    的頭像 發(fā)表于 02-12 10:02 ?350次閱讀

    端側AI元年爆發(fā)!廣和通AI模組及解決方案全面支持DeepSeek-R1蒸餾模型

    近期,國產大模型DeepSeek憑借開放性、更低訓練成本、端側部署等優(yōu)勢,迅速成為增速最快的AI應用之一,推動AI普惠化。目前,廣和通高算力AI
    的頭像 發(fā)表于 02-11 18:08 ?462次閱讀
    端側<b class='flag-5'>AI</b>元年爆發(fā)!廣和通<b class='flag-5'>AI</b>模組及解決方案全面支持<b class='flag-5'>DeepSeek-R1</b><b class='flag-5'>蒸餾</b><b class='flag-5'>模型</b>

    廣和通支持DeepSeek-R1蒸餾模型

    近期,國產大模型DeepSeek憑借開放性、更低訓練成本、端側部署等優(yōu)勢,迅速成為增速最快的AI應用之一,推動AI普惠化。目前,廣和通高算力AI
    的頭像 發(fā)表于 02-11 09:41 ?486次閱讀

    AIBOX 全系產品已適配 DeepSeek-R1

    國產AI模型DeepSeek以出色的性價比和高效的模型技術,迅速成為全球AI關注的焦點。Firefly開源團隊率先實現(xiàn)AIBOX系列產品對
    的頭像 發(fā)表于 02-08 17:30 ?484次閱讀
    AIBOX 全系產品已適配 <b class='flag-5'>DeepSeek-R1</b>

    DeepSeek-R1本地部署指南,開啟AI探索之旅

    R1 2025.01.20 DeepSeek-R1 發(fā)布,DeepSeek R1DeepSeek
    的頭像 發(fā)表于 02-08 10:30 ?5166次閱讀
    <b class='flag-5'>DeepSeek-R1</b>本地部署指南,<b class='flag-5'>開啟</b><b class='flag-5'>你</b>的<b class='flag-5'>AI</b>探索<b class='flag-5'>之旅</b>

    deepin UOS AI接入DeepSeek-R1模型

    DeepSeek-R1 模型自發(fā)布以來吸引了眾多用戶關注,為了讓 deepin 用戶更好地體驗這一前沿技術,UOS AI 現(xiàn)已適配接入 DeepSeek-R1 端側
    的頭像 發(fā)表于 02-08 09:52 ?857次閱讀

    芯動力神速適配DeepSeek-R1模型AI芯片設計邁入“快車道”!

    近期,國產大模型 DeepSeek-R1橫空出世,迅速成為AI領域的焦點。 芯動力在24小時內完成了與DeepSeek-R1模型的適配。
    的頭像 發(fā)表于 02-07 16:55 ?519次閱讀
    芯動力神速適配<b class='flag-5'>DeepSeek-R1</b>大<b class='flag-5'>模型</b>,<b class='flag-5'>AI</b>芯片設計邁入“快車道”!

    DeepSeek-R1全尺寸版本上線Gitee AI

    DeepSeek 全套蒸餾模型以及 V3 版本上線后,經過 Gitee AI 和沐曦團隊兩天緊鑼密鼓的適配和機器籌備,DeepSeek-R1
    的頭像 發(fā)表于 02-07 15:25 ?990次閱讀