女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

管理 ML 模型部署中的權(quán)衡

茶壺茶茶 ? 2022-07-21 09:19 ? 次閱讀

機(jī)器學(xué)習(xí)代碼放在哪里——在云中、邊緣設(shè)備上或前提上——總是需要權(quán)衡。這里有一些提示。

工程師經(jīng)常需要就代碼的放置位置做出重要決定:在云中、邊緣設(shè)備上或本地。這個(gè)決定總是涉及權(quán)衡——考慮到適用于每組情況的軟件、固件、開(kāi)發(fā)工具和硬件的正確組合。在 Samsara 的機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺(jué) (ML/CV) 團(tuán)隊(duì)中,我們構(gòu)建模型并開(kāi)發(fā)算法,幫助我們的客戶提高其運(yùn)營(yíng)的安全性、效率和可持續(xù)性。例如,構(gòu)建應(yīng)用程序以實(shí)時(shí)檢測(cè)和警告有風(fēng)險(xiǎn)的駕駛行為,并最終降低道路事故的頻率。

在尋求構(gòu)建 ML 解決方案時(shí),運(yùn)輸、倉(cāng)儲(chǔ)或制造等行業(yè)的運(yùn)營(yíng)環(huán)境構(gòu)成了獨(dú)特的限制。例如,遠(yuǎn)程位置可能會(huì)因連接受限而出現(xiàn)瓶頸,或者擁有無(wú)法運(yùn)行最新最好的模型的過(guò)時(shí)技術(shù)系統(tǒng)。這些限制,再加上這些應(yīng)用程序的安全關(guān)鍵方面,需要低延遲、計(jì)算效率高的 ML 推理,因?yàn)橥稻W(wǎng)絡(luò)延遲和參差不齊的蜂窩覆蓋將消除在云中完全實(shí)現(xiàn)這些功能的可能性。因此,除了保證模型的準(zhǔn)確性之外,模型還必須在與邊緣硬件平臺(tái)相關(guān)的更嚴(yán)格的計(jì)算、內(nèi)存和延遲范圍內(nèi)運(yùn)行。

可以想象,在為此類邊緣部署選擇模型時(shí),需要分析和考慮許多權(quán)衡。以下是您可能會(huì)遇到的一些常見(jiàn)問(wèn)題,以及如何處理它們。

首先,您必須考慮 ML 引擎的計(jì)算吞吐量和準(zhǔn)確性之間的權(quán)衡。同樣,由于蜂窩網(wǎng)絡(luò)覆蓋范圍參差不齊,您無(wú)法在云中實(shí)現(xiàn)所有內(nèi)容并相信數(shù)據(jù)可以可靠地交付。在車載高級(jí)駕駛員輔助系統(tǒng) (ADAS) 的情況下,您也不能讓笨重的攝像頭或處理器擋住車輛的儀表板。您需要權(quán)衡這種權(quán)衡:一個(gè)更緊湊的平臺(tái)(例如,類似于智能手機(jī)中使用的處理器),具有專門(mén)的片上系統(tǒng)硬件,可以處理圖像和信號(hào)處理,同時(shí)仍然保留大量處理ML 模型有效運(yùn)行的空間。

使用這個(gè)更緊湊的平臺(tái),您必須考慮您的功率預(yù)算,尤其是任何基于移動(dòng)的應(yīng)用程序。運(yùn)行程序所消耗的功率越多,您必須消散的熱能就越多,電池消耗的電量就越多。某些硬件協(xié)處理器支持某些指令集,并且每個(gè)計(jì)算單元的功率效率非常高。但是,并非所有數(shù)學(xué)運(yùn)算都可以在這些指令集中準(zhǔn)確地構(gòu)建。在這些情況下,您必須回退到更通用的計(jì)算平臺(tái)(如 GPUCPU),這些平臺(tái)支持更多的數(shù)學(xué)運(yùn)算,但更耗電。

移動(dòng)友好型架構(gòu)旨在利用硬件加速(例如 DSP),可以減少整體模型大小和內(nèi)存消耗,但仍為您使用它的產(chǎn)品應(yīng)用程序提供足夠好的精度。在這些架構(gòu)中,您再次面臨一系列決策,包括模型準(zhǔn)確性/延遲權(quán)衡以及是構(gòu)建自己的 AI 解決方案還是利用外部 AI 服務(wù)提供商來(lái)訓(xùn)練和測(cè)試您的 ML 模型。

接下來(lái),重要的是要考慮您的模型如何集成到所選硬件中。因?yàn)樗刑幚砥鞫加胁煌闹噶罴瘉?lái)支持特定的操作,所以查看每個(gè)硬件平臺(tái)的文檔以了解這些優(yōu)勢(shì)如何影響您的特定代碼會(huì)有所幫助。每個(gè)部署環(huán)境都有自己的一組內(nèi)置特性。例如,tflite、TensorRT、SNPE 等有不同的支持操作集,所有這些都略有不同。無(wú)論您最終使用哪種芯片組,您仍然必須將所有數(shù)學(xué)計(jì)算硬塞到將執(zhí)行這些計(jì)算的最終硬件中。

您可能會(huì)遇到的一個(gè)問(wèn)題是部署環(huán)境可能不支持網(wǎng)絡(luò)訓(xùn)練時(shí)使用的所有網(wǎng)絡(luò)操作和層。此外,某些操作沒(méi)有硬件加速實(shí)現(xiàn),迫使您在 CPU 上運(yùn)行這些元素,這可能會(huì)造成內(nèi)存和性能瓶頸。其中一些不兼容性需要在訓(xùn)練過(guò)程中通過(guò)修改模型架構(gòu)本身來(lái)解決,而另一些則需要在將模型轉(zhuǎn)換為硬件兼容格式時(shí)加以解決。

最后一步是對(duì)最終模型版本進(jìn)行基準(zhǔn)測(cè)試,并將性能特征與原始規(guī)格進(jìn)行比較。你必須要有創(chuàng)意并精簡(jiǎn)你的模型,這樣它才能以低延遲運(yùn)行。這包括刪除模型操作并將不兼容操作的子圖替換為硬件支持的操作以更快地運(yùn)行。其他策略包括通道修剪、層折疊和權(quán)重量化。

歸根結(jié)底,有時(shí)您可以讓您的模型同時(shí)在設(shè)備和云中運(yùn)行。但是,當(dāng)您受到底層硬件性能特征、網(wǎng)絡(luò)延遲和準(zhǔn)確性要求的限制時(shí),我們應(yīng)該考慮在哪里以及如何運(yùn)行模型。分割模型執(zhí)行以在邊緣設(shè)備或云上的后端服務(wù)中運(yùn)行仍然是一門(mén)藝術(shù),而不是科學(xué)。一個(gè)好的產(chǎn)品將整合對(duì)解決方案功能和客戶需求、硬件限制以及平衡行為的深刻理解,以制定滿足這些需求同時(shí)尊重物理約束的模型。

— Sharan Srinivasan 和 Brian Tuan 是 Samsara 機(jī)器學(xué)習(xí)和計(jì)算機(jī)視覺(jué)工程團(tuán)隊(duì)的軟件工程師,Samsara是一家位于舊金山的全球互聯(lián)運(yùn)營(yíng)云公司。在 Samsara,Srinivasan 和 Tuan 負(fù)責(zé)使用 Tensorflow、OpenCV、Pyspark 和 Go 解決各種機(jī)器學(xué)習(xí)以應(yīng)對(duì)計(jì)算機(jī)視覺(jué)挑戰(zhàn),以構(gòu)建在邊緣運(yùn)行的模型。


審核編輯 黃昊宇

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3486

    瀏覽量

    49990
  • ML
    ML
    +關(guān)注

    關(guān)注

    0

    文章

    150

    瀏覽量

    34972
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    企業(yè)部署AI大模型怎么做

    當(dāng)下,AI大模型已成為驅(qū)動(dòng)決策自動(dòng)化、服務(wù)智能化與產(chǎn)品創(chuàng)新的核心引擎。然而,企業(yè)面對(duì)動(dòng)輒數(shù)百億參數(shù)的大模型部署時(shí),常陷入算力不足、響應(yīng)延遲高、成本失控等困境。如何突破瓶頸,實(shí)現(xiàn)高效、穩(wěn)定的AI
    的頭像 發(fā)表于 06-04 09:26 ?64次閱讀

    如何使用Docker部署模型

    隨著深度學(xué)習(xí)和大模型的快速發(fā)展,如何高效地部署這些模型成為了一個(gè)重要的挑戰(zhàn)。Docker 作為一種輕量級(jí)的容器化技術(shù),能夠?qū)?b class='flag-5'>模型及其依賴環(huán)境打包成一個(gè)可移植的容器,極大地簡(jiǎn)化了
    的頭像 發(fā)表于 05-24 16:39 ?166次閱讀

    ORinNano離線部署Deepseek R1大模型教程

    ORinNano離線部署Deepseek R1大模型教程
    的頭像 發(fā)表于 04-10 15:32 ?292次閱讀
    ORinNano離線<b class='flag-5'>部署</b>Deepseek R1大<b class='flag-5'>模型</b>教程

    如何在RAKsmart服務(wù)器上實(shí)現(xiàn)企業(yè)AI模型部署

    AI模型的訓(xùn)練與部署需要強(qiáng)大的算力支持、穩(wěn)定的網(wǎng)絡(luò)環(huán)境和專業(yè)的技術(shù)管理。RAKsmart作為全球領(lǐng)先的服務(wù)器托管與云計(jì)算服務(wù)提供商,已成為企業(yè)部署AI
    的頭像 發(fā)表于 03-27 09:46 ?424次閱讀

    K230D部署模型失敗的原因?

    MicroPython部署的無(wú)法正常運(yùn)行,采用C++版本的無(wú)法實(shí)現(xiàn)部署 嘗試解決過(guò)程 1.考慮到可能是固件不匹配的問(wèn)題,重新燒錄了流程(生成模型后給的readme)要求的固件,依舊無(wú)
    發(fā)表于 03-11 06:19

    如何部署OpenVINO?工具套件應(yīng)用程序?

    編寫(xiě)代碼并測(cè)試 OpenVINO? 工具套件應(yīng)用程序后,必須將應(yīng)用程序安裝或部署到生產(chǎn)環(huán)境的目標(biāo)設(shè)備。 OpenVINO?部署管理器指南包含有關(guān)如何輕松使用
    發(fā)表于 03-06 08:23

    是否可以使用OpenVINO?部署管理器在部署機(jī)器上運(yùn)行Python應(yīng)用程序?

    使用 OpenVINO?部署管理器創(chuàng)建運(yùn)行時(shí)軟件包。 將運(yùn)行時(shí)包轉(zhuǎn)移到部署機(jī)器。 無(wú)法確定是否可以在部署機(jī)器上運(yùn)行 Python 應(yīng)用程
    發(fā)表于 03-05 08:16

    添越智創(chuàng)基于 RK3588 開(kāi)發(fā)板部署測(cè)試 DeepSeek 模型全攻略

    這也會(huì)帶來(lái)新問(wèn)題,隨著模型參數(shù)增加,回復(fù)速度會(huì)明顯下降,實(shí)際應(yīng)用需根據(jù)需求權(quán)衡。使用 Ollama 工具部署的推理模型運(yùn)行時(shí)主要依賴 CP
    發(fā)表于 02-14 17:42

    語(yǔ)言模型管理的作用

    要充分發(fā)揮語(yǔ)言模型的潛力,有效的語(yǔ)言模型管理非常重要。以下,是對(duì)語(yǔ)言模型管理作用的分析,由AI部落小編整理。
    的頭像 發(fā)表于 01-02 11:06 ?326次閱讀

    企業(yè)AI模型部署攻略

    當(dāng)下,越來(lái)越多的企業(yè)開(kāi)始探索和實(shí)施AI模型,以提升業(yè)務(wù)效率和競(jìng)爭(zhēng)力。然而,AI模型部署并非易事,需要企業(yè)在多個(gè)層面進(jìn)行細(xì)致的規(guī)劃和準(zhǔn)備。下面,AI部落小編為企業(yè)提供一份AI模型
    的頭像 發(fā)表于 12-23 10:31 ?720次閱讀

    AI模型部署邊緣設(shè)備的奇妙之旅:目標(biāo)檢測(cè)模型

    網(wǎng)絡(luò)(DenseNet)等創(chuàng)新設(shè)計(jì)都是為了克服深層網(wǎng)絡(luò)訓(xùn)練的挑戰(zhàn)而提出的。 3 邊緣端設(shè)備部署 在邊緣端設(shè)備部署目標(biāo)檢測(cè)模型,特別是像PP-PicoDet這樣輕量級(jí)且高效的
    發(fā)表于 12-19 14:33

    如何開(kāi)啟Stable Diffusion WebUI模型推理部署

    如何開(kāi)啟Stable Diffusion WebUI模型推理部署
    的頭像 發(fā)表于 12-11 20:13 ?463次閱讀
    如何開(kāi)啟Stable Diffusion WebUI<b class='flag-5'>模型</b>推理<b class='flag-5'>部署</b>

    AI模型部署邊緣設(shè)備的奇妙之旅:如何實(shí)現(xiàn)手寫(xiě)數(shù)字識(shí)別

    新的數(shù)據(jù)樣本,另一個(gè)是判別器用來(lái)判斷這些樣本的真實(shí)性。兩者相互競(jìng)爭(zhēng),共同進(jìn)化,最終實(shí)現(xiàn)高質(zhì)量的數(shù)據(jù)合成。 2.4 模型優(yōu)化技術(shù) 在將深度學(xué)習(xí)模型部署到資源受限的環(huán)境時(shí),
    發(fā)表于 12-06 17:20

    AI模型部署管理的關(guān)系

    AI模型部署管理是AI項(xiàng)目成功的兩大支柱,它們之間既相互獨(dú)立又緊密相連,共同推動(dòng)著AI技術(shù)從實(shí)驗(yàn)室走向?qū)嶋H應(yīng)用。
    的頭像 發(fā)表于 11-21 10:02 ?594次閱讀

    企業(yè)AI模型部署怎么做

    AI模型部署作為這一轉(zhuǎn)型過(guò)程的關(guān)鍵環(huán)節(jié),其成功實(shí)施對(duì)于企業(yè)的長(zhǎng)遠(yuǎn)發(fā)展至關(guān)重要。在此,AI部落小編為您介紹企業(yè)AI模型部署的步驟以及注意事項(xiàng)
    的頭像 發(fā)表于 11-04 10:15 ?699次閱讀