女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

SL1680 SoC本地運行DeepSeek R1 1.5B大模型

jf_59991523 ? 來源:jf_59991523 ? 作者:jf_59991523 ? 2025-04-17 17:09 ? 次閱讀

SL1680 SoC本地運行DeepSeek R1 1.5B大模型

自DeepSeek大模型發布以來,深蕾半導體SoC團隊針對在端側運行DeepSeek大模型不斷進行研究,探索將DeepSeek大模型與SoC系列產品相結合的模式。目前已經實現利用深蕾半導體的ASTRA SL1680 SoC本地運行DeepSeek R1 Distill Qwen2.5 1.5B大模型。

DeepSeek R1 Distill Qwen2.5 1.5B是DeepSeek R1發布中最小的模型 - 它可以在ASTRA SL1680上舒適地運行。

一、SL1680本地運行Deepseek-R1-1.5B大模型展示

wKgZO2gAntaAO81xAAeYe0My_Lo217.png

SL1680本地運行Deepseek-R1-1.5B大模型視頻效果

執行過程

要在ASTRA開發板上運行Qwen,我們將使用llama-cpp-python包,它為Georgi Gerganov的llamacpp提供了便捷的Python綁定。

wKgZO2gAnxWAWZV6AAS9_ylq1gM966.png

wKgZO2gAnzCAE_4rAANlmcMqdrY486.png

除了在SL1680本地運行Deepseek-R1-1.5B大模型,還實現了運行Llama 3.2 1B大模型。

運行環境

系統:Linux(yocto)

硬件:SL1680 RDK開發板


產品化路徑

對于SL1680產品如何與大模型結合的問題,建議采用端側大模型與云端大模型相結合的工程化方式處理,本地能處理的用戶任務使用端側大模型快速解決和輸出,而較復雜的邏輯以及聯網功能則通過請求云端大模型API的方式實現。

如視頻所展示的,將Deepseek-R1-1.5B大模型部署到SoC本地,能夠實現知識問答、FuntionCall等AI能力。通過將云端的大模型與端側的語音識別機器視覺功能、端側小參數大模型相結合,從而讓AI賦能我們的產品,提升產品的智能化程度。

二、本地小參數大模型與端云大模型結合的應用場景

1,多媒體終端:本地小參數大模型可在端側如智能大屏,快速處理一些常見的簡單任務,如語音助手對常見指令的快速響應、文本的簡單摘要生成、數據加工整理、設備操控、產品說明、產品售后問題自助解決等。當遇到復雜任務,如深度文本分析、多模態內容生成時,可將任務發送到云側大模型進行處理,利用云側大模型強大的計算能力和豐富的知識儲備來完成。

2,智能辦公設備(MINI PC):本地小參數大模型可以實時處理用戶的語音交互、文字輸入信息處理、智能控制等任務,作為用戶AI助手。而對于一些復雜的邏輯理解、內容生成設計和決策任務等,則借助云側大模型的強大算力和更全面的數據分析能力來完成。

3,零售電商:在商品展示平臺的搜索推薦場景中,本地小參數大模型可以根據用戶在本地設備上的瀏覽歷史、購買行為、環境感知等數據,快速生成初步的推薦結果。當用戶有更復雜的搜索需求,如對比不同商品的詳細參數、詢問商品的使用場景等問題時,云側大模型可以利用其龐大的商品知識庫和強大的語言理解能力,給出更準確、詳細的回答和推薦。

三、ASTRA SL1680 SoC介紹

ASTRA SL1680是一款專為智能應用設計的高性能系統級芯片(SoC),它擁有

1,4*Cortex A73 CPU處理器

Cortex A73是ARM公司設計的一款高性能CPU核心,適用于需要高性能計算的應用場景,能夠提供強大的處理能力和多任務處理能力,為Deepseek-R1-1.5B大模型的運行提供堅實保障。


2,高達7.9 Top NPU算力:

NPU(Neural Processing Unit,神經網絡處理單元)是專門用于加速神經網絡計算的硬件單元。7.9 Top的算力使SL1680在神經網絡計算方面有著極高的性能,為端云結合的應用模式創造了有利條件。


3,64-bit高速內存:

64位內存架構支持更大的內存尋址空間,使得SL1680能夠同時處理更多的數據和運行更復雜的應用程序。高速內存則保證了數據訪問的迅速性,提升了整體性能。

wKgZPGgAn4uAM23GAAvynChu45w281.png




審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • soc
    soc
    +關注

    關注

    38

    文章

    4326

    瀏覽量

    221558
  • 大模型
    +關注

    關注

    2

    文章

    3011

    瀏覽量

    3788
  • DeepSeek
    +關注

    關注

    1

    文章

    767

    瀏覽量

    1292
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    【幸狐Omni3576邊緣計算套件試用體驗】CPU部署DeekSeek-R1模型1B和7B

    ,使用如下命令: ollama pull deepseek-r1:1.5b 拉取deepseek-r1 1.5b模型,過程中會下載速度和進
    發表于 04-21 00:39

    DeepSeek R1模型本地部署與產品接入實操

    針對VS680/SL1680系列大算力芯片,我們的研發團隊正在研究將蒸餾后的輕量級DeepSeek模型DeepSeek-R1-Distill-Qwen-1.5B)部署到
    的頭像 發表于 04-19 16:32 ?153次閱讀
    <b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b><b class='flag-5'>模型</b><b class='flag-5'>本地</b>部署與產品接入實操

    ORinNano離線部署Deepseek R1模型教程

    ORinNano離線部署Deepseek R1模型教程
    的頭像 發表于 04-10 15:32 ?254次閱讀
    ORinNano離線部署<b class='flag-5'>Deepseek</b> <b class='flag-5'>R1</b>大<b class='flag-5'>模型</b>教程

    如何基于Android 14在i.MX95 EVK上運行Deepseek-R1-1.5B和性能

    Internet,或者您可以手動下載模型。按“ ”并選擇 “從Hugging Face添加” 并搜索1.5B,找到deepseek-R1-1.5B模型,下載
    發表于 04-04 06:59

    RK3588開發板上部署DeepSeek-R1模型的完整指南

    下載DeepSeek-R1-Distill-Qwen-1.5B權重文件。 (2)安裝轉換工具 在Ubuntu創建虛擬環境并安裝RKLLM-Toolkit,以便將DeepSeek-R1大語言模型轉換
    發表于 02-27 16:45

    兆芯全面部署DeepSeek R1模型

    近日,基于兆芯高性能通用處理器的PC終端、工作站以及服務器成功實現DeepSeek-R1-Distill模型1.5B/7B/32B/70
    的頭像 發表于 02-25 13:45 ?411次閱讀

    9.9萬元用上“滿血”DeepSeek R1一體機,本地部署成新商機?

    電子發燒友綜合報道? 最近DeepSeek R1的火爆,引起了本地部署的熱潮,但大部分個人用戶,受到設備的限制,一般只能在個人電腦上部署小尺寸的1.5B或7
    發表于 02-18 01:16 ?5074次閱讀

    宇芯基于T527成功部署DeepSeek-R1

    近日,宇芯成功在全志T527 Linux系統上本地部署并運行DeepSeek-R1 1.5B模型
    的頭像 發表于 02-15 09:06 ?878次閱讀
    宇芯基于T527成功部署<b class='flag-5'>DeepSeek-R1</b>

    景嘉微JM11 GPU已流片,JM、景宏系列完成DeepSeek R1系列模型適配

    DeepSeek-R1-Distill-Qwen-1.5B模型DeepSeek-R1-Distill-Qwen-7B模型的適配。 ? ? 同時,景宏系列已全面兼容并適配
    發表于 02-15 00:01 ?1847次閱讀
    景嘉微JM11 GPU已流片,JM、景宏系列完成<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>系列<b class='flag-5'>模型</b>適配

    了解DeepSeek-V3 和 DeepSeek-R1兩個大模型的不同定位和應用選擇

    : 輕量級任務 DeepSeek-R1獨立運行,用于: 電路參數計算(如濾波器截止頻率公式推導) 基礎SPICE仿真腳本生成 技術文檔QA(如查找某ADC的SNR指標) 復雜任務R1 + 領域插件
    發表于 02-14 02:08

    部署DeepSeek R1于AX650N與AX630C平臺

    背景 春節前,國產大模型 DeepSeek 橫空出世,迅速成為AI領域的焦點。作為端側AI能效比優異的 AX650N、AX630C 芯片平臺早已在節前完成 DeepSeek R1 蒸餾
    的頭像 發表于 02-09 09:32 ?879次閱讀
    部署<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>于AX650N與AX630C平臺

    壁仞科技順利部署DeepSeek R1千問蒸餾模型

    DeepSeek 的國內算力支持隊伍進一步壯大:來自上海的壁仞科技順利部署DeepSeek-R1-Distill千問蒸餾模型(1.5B/7B
    的頭像 發表于 02-08 16:56 ?1480次閱讀

    在龍芯3a6000上部署DeepSeek 和 Gemma2大模型

    run deepseek-r1:1.5b 3.運行Gemma 2大模型 如果想體驗 Google Gemma 2 可以到下面的網站選擇不同參數的大
    發表于 02-07 19:35

    云天勵飛上線DeepSeek R1系列模型

    模型DeepSeek V3/R1 671B MoE大模型也在有序適配中。適配完成后,DeepEdge10芯片平臺將在端、邊、云全面支持
    的頭像 發表于 02-06 10:39 ?560次閱讀
    云天勵飛上線<b class='flag-5'>DeepSeek</b> <b class='flag-5'>R1</b>系列<b class='flag-5'>模型</b>

    AI賦能駕駛安全:Synaptics SL1680疲勞駕駛檢測方案

    Synaptics SL1680 作為一款高性能、低功耗的 AI 原生 SoC,為駕駛安全解決方案提供了穩定的硬件基礎,加上先進的 AI 模型,可以實現實時、精準的疲勞駕駛檢測。
    的頭像 發表于 12-31 16:31 ?429次閱讀
    AI賦能駕駛安全:Synaptics <b class='flag-5'>SL1680</b>疲勞駕駛檢測方案