女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

開發(fā)和部署ML模型介紹

jf_pJlTbmA9 ? 來源:NVIDIA ? 作者:NVIDIA ? 2023-07-05 16:30 ? 次閱讀

本系列介紹 開發(fā)和部署 ( M L ) 模型 。本文概述了 ML 工作流,考慮到使用機器學習和數(shù)據(jù)科學來實現(xiàn)業(yè)務價值所涉及的各個階段。在第 2 部分中,訓練并保存 ML 模型 可以將其部署為 ML 系統(tǒng)的一部分。第 3 部分向您展示了 如何部署 ML 模型到 Google 云平臺 ( GCP )。

當使用 machine learning 解決問題并提供業(yè)務價值時,您使用的技術、工具和模型會根據(jù)用例而變化。然而,當從一個想法轉(zhuǎn)移到一個已部署的模型時,需要經(jīng)過一組通用的工作流階段。

之前,我討論過 如何搭建機器學習微服務 和 如何使用 Streamlit 和 FastAPI 構(gòu)建即時機器學習 Web 應用程序 。在這兩個教程中, ML 模型僅在本地運行。這對于演示來說已經(jīng)足夠了,但如果您的模型必須在互聯(lián)網(wǎng)上持續(xù)提供預測,則這是不切實際的。

機器學習工作流

ML 工作流包含以下主要組件:

勘探和數(shù)據(jù)處理

建模

部署

每個階段都可以細分為更小的程序。

ml-workflow-udacity-625x337.png 圖 1. 機器學習工作流
(Source: Become a Machine Learning Engineer Nanodegree (Udacity) )

圖 1 顯示了典型機器學習項目的端到端工作流的可視化表示。下面是有關每個組件的更多信息。

勘探和加工

重要的工作是確保用于 ML 項目的數(shù)據(jù)集質(zhì)量良好,因為這些數(shù)據(jù)是建模階段可靠性能的基礎。如果您向模型提供低質(zhì)量的數(shù)據(jù),則可能會產(chǎn)生較差或錯誤的結(jié)果。

這部分工作流程通常占用最多的時間。數(shù)據(jù)勘探和處理可進一步分為以下幾個階段:

Data retrieval : ML 項目需要高質(zhì)量的數(shù)據(jù),而這些數(shù)據(jù)并不總是可以立即訪問的。您可能需要實施數(shù)據(jù)采集技術,例如刮取或手動數(shù)據(jù)采集。

數(shù)據(jù)清理和探索 :數(shù)據(jù)也很少能夠立即處理。您必須對其進行清理,以在所需的用例中獲得最佳性能。您還應該了解正在使用的數(shù)據(jù)集,因此需要進行探索。

數(shù)據(jù)準備或轉(zhuǎn)換 :在最后階段,對數(shù)據(jù)進行設計,以提取正在解決的現(xiàn)實世界問題的代表性特征。然后將數(shù)據(jù)轉(zhuǎn)換為 ML 模型可以使用的格式。

建模

當大多數(shù)數(shù)據(jù)從業(yè)者想到機器學習時,他們的注意力都集中在建模組件上。建模階段包括以下階段:

模型開發(fā)和培訓 :這一階段是關于向機器學習模型提供數(shù)據(jù),然后調(diào)整超參數(shù),以便模型可以很好地推廣到不可見的數(shù)據(jù)輸入。

模型驗證和評估 :必須評估機器學習模型的性能,以確定其行為是否符合預期。這涉及到確定一個數(shù)字度量,以評估模型對未知數(shù)據(jù)輸入的性能。

模型部署

最后,部署階段涉及使最終用戶可以訪問 ML 模型,監(jiān)控模型在生產(chǎn)中的性能,并更新模型。

部署 ML 模型不僅僅是孤立的模型。數(shù)據(jù)從業(yè)者部署整個 ML 管道,這決定了如何編碼和自動化端到端工作流。

如何實現(xiàn)這一點有幾個選項。

不同的模型部署選項

生成 ML 應用程序是為了解決特定問題。因此,任何 ML 應用程序的真正價值通常只有在模型或算法在生產(chǎn)環(huán)境中被積極使用時才能實現(xiàn)。

將 ML 模型從離線研究環(huán)境轉(zhuǎn)換到實時生產(chǎn)環(huán)境的過程稱為 deployment 。

部署是 ML 工作流的一個關鍵組件。它使模型能夠達到其預期目的。在項目規(guī)劃階段,必須考慮如何部署 ML 模型。在決定部署類型時要考慮的因素超出了本文的范圍。然而,我提供了一些關于可用選項的見解。

Web 服務

部署機器學習模型最直接的選擇是創(chuàng)建 web 服務。這意味著通過查詢 web 服務來獲得來自模型的預測。

使用 web 服務部署機器學習模型包括以下主要步驟:

Building the model: 必須創(chuàng)建 ML 模型,然后將其包裝在 web 服務中。然而,模型構(gòu)建通常需要與主 web 服務應用程序不同的一組資源。將模型培訓和 web 服務應用程序環(huán)境分開是有意義的。

構(gòu)建 web 應用程序: 訓練模型后,必須將其持久化,以便將其導入 web 應用程序。 web 應用程序是使用開發(fā) web 服務的框架(如 Flask 、 FastAPI 和 Django )包裝的推理邏輯。

托管 web 服務: 為了讓您的 web 服務全天候、自動化和可擴展,您必須托管應用程序。這可以通過使用托管提供商來完成。在本系列的第三部分中,您將使用 Google App Engine 。

有關前兩個步驟的更多信息,請參見 Building a Machine Learning Microservice with FastAPI 。

無服務器計算

使用無服務器計算部署機器學習模型意味著您希望為模型預測提供服務,而不必擔心如何管理底層基礎設施,例如計算資源。

仍然有一個服務器。所發(fā)生的一切是,您將管理服務器的責任交給了云提供商。現(xiàn)在,您可以更加專注于編寫性能更好的代碼。

無服務器計算提供程序的示例包括:

Amazon Web Services (AWS) Lambda

Microsoft Azure

Google Cloud Functions

要使用 Google Cloud Functions 部署機器學習模型,請參閱本系列的第 3 部分“實踐中的機器學習:在 Google Cloud Provider 上部署 ML 模型[LINK]”。

托管 AI

一個管理的人工智能云正是它在錫上所說的。您提供了一個串行化模型,云提供商以較少的控制為代價,為您完全管理基礎架構(gòu)。換句話說,您可以獲得云計算的優(yōu)化好處,而不必成為任何方面的專家。

托管 AI 云提供商的示例包括:

Amazon SageMaker

Google Cloud AI Platform

IBM Watson

Microsoft Azure Machine Learning

接下來是什么?

現(xiàn)在您已經(jīng)了解了端到端 ML 工作流,并且已經(jīng)看到了部署 ML 模型的可能方法,請繼續(xù)第 2 部分 Machine Learning in Practice: Build an ML Model ,在這里您將根據(jù)一些數(shù)據(jù)訓練模型。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • NVIDIA
    +關注

    關注

    14

    文章

    5240

    瀏覽量

    105768
  • AI
    AI
    +關注

    關注

    87

    文章

    34197

    瀏覽量

    275348
  • 機器學習
    +關注

    關注

    66

    文章

    8491

    瀏覽量

    134083
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    添越智創(chuàng)基于 RK3588 開發(fā)部署測試 DeepSeek 模型全攻略

    DeepSeek 模型部署與測試,開啟這場充滿挑戰(zhàn)與驚喜的技術探索之旅。 RK3588 開發(fā)板:AI 性能擔當 RK3588 開發(fā)板基于先進的 8nm LP 制程工藝精心打造,其硬
    發(fā)表于 02-14 17:42

    介紹在STM32cubeIDE上部署AI模型的系列教程

    介紹在STM32cubeIDE上部署AI模型的系列教程,開發(fā)板型號STM32H747I-disco,值得一看。MCUAI原文鏈接:【嵌入式AI開發(fā)
    發(fā)表于 12-14 09:05

    eIQ軟件對ML模型有何作用

    隨著產(chǎn)品越來越復雜,具有了更強大的處理能力和更高的速度,使得機器學習(ML)技術逐漸擴展到邊緣應用。借助eIQ軟件,現(xiàn)在可以非常輕松地將新的ML模型引入邊緣設備。機器學習...
    發(fā)表于 12-20 07:01

    介紹一種Arm ML嵌入式評估套件

    開發(fā)人員能夠優(yōu)化 ML 模型,以便在內(nèi)存、功率限制和存儲限制的設備上進行部署。有不同的優(yōu)化技術,包括量化、修剪和聚類, 它們是 TensorFlow
    發(fā)表于 08-12 15:35

    通過Cortex來非常方便的部署PyTorch模型

    到軟件中。如何從“跨語言語言模型”轉(zhuǎn)換為谷歌翻譯?在這篇博客文章中,我們將了解在生產(chǎn)環(huán)境中使用 PyTorch 模型意味著什么,然后介紹一種允許部署任何 PyTorch
    發(fā)表于 11-01 15:25

    部署基于嵌入的機器學習模型

    1、如何在生產(chǎn)中部署基于嵌入的機器學習模型  由于最近大量的研究,機器學習模型的性能在過去幾年里有了顯著的提高。雖然這些改進的模型開辟了新的可能性,但是它們只有在可以
    發(fā)表于 11-02 15:09

    如何將ML模型部署到微控制器?

    大家好,的我正在嘗試將 ML 模型部署到微控制器,我有兩塊 STM32L4R9I-Discovery 和 STM32H7B3I-Discovery 板。實驗及相關結(jié)果如下所示:我使用 TFLite
    發(fā)表于 12-29 13:09

    使用Flask和Docker容器化一個簡單的ML模型評分服務器

    我們將使用兩種不同的方法演示 ML 模型部署:使用 Docker 和 Kubernetes 的第一原則方法;然后使用 Seldon Core Kubernetes 本機框架來簡化 ML
    的頭像 發(fā)表于 04-15 16:56 ?3708次閱讀

    GTC2022大會亮點:Modulus用于開發(fā)physics-ML模型的AI框架

    GTC2022大會亮點:Modulus用于開發(fā)physics-ML模型的AI框架,速度比數(shù)值方法快許多個數(shù)量級。
    的頭像 發(fā)表于 03-24 17:30 ?1944次閱讀
    GTC2022大會亮點:Modulus用于<b class='flag-5'>開發(fā)</b>physics-<b class='flag-5'>ML</b><b class='flag-5'>模型</b>的AI框架

    管理 ML 模型部署中的權(quán)衡

    情況的軟件、固件、開發(fā)工具和硬件的正確組合。在 Samsara 的機器學習和計算機視覺 (ML/CV) 團隊中,我們構(gòu)建模型開發(fā)算法,幫助我們的客戶提高其運營的安全性、效率和可持續(xù)性
    的頭像 發(fā)表于 07-21 09:19 ?838次閱讀

    如何部署ML模型到Google云平臺

    實踐中的機器學習:在 Google 云平臺上部署 ML 模型
    的頭像 發(fā)表于 07-05 16:30 ?870次閱讀
    如何<b class='flag-5'>部署</b><b class='flag-5'>ML</b><b class='flag-5'>模型</b>到Google云平臺

    PerfXCloud大模型開發(fā)部署平臺開放注冊

    PerfXCloud?介紹 PerfXCloud是澎峰科技為開發(fā)者和企業(yè)量身打造的AI開發(fā)部署平臺。它專注于滿足大模型的微調(diào)和推理需求,為
    的頭像 發(fā)表于 07-02 10:27 ?604次閱讀
    PerfXCloud大<b class='flag-5'>模型</b><b class='flag-5'>開發(fā)</b>與<b class='flag-5'>部署</b>平臺開放注冊

    大語言模型如何開發(fā)

    大語言模型開發(fā)是一個復雜且細致的過程,涵蓋了數(shù)據(jù)準備、模型架構(gòu)設計、訓練、微調(diào)和部署等多個階段。以下是對大語言模型
    的頭像 發(fā)表于 11-04 10:14 ?532次閱讀

    大語言模型開發(fā)框架是什么

    大語言模型開發(fā)框架是指用于訓練、推理和部署大型語言模型的軟件工具和庫。下面,AI部落小編為您介紹大語言
    的頭像 發(fā)表于 12-06 10:28 ?459次閱讀

    如何使用Docker部署模型

    隨著深度學習和大模型的快速發(fā)展,如何高效地部署這些模型成為了一個重要的挑戰(zhàn)。Docker 作為一種輕量級的容器化技術,能夠?qū)?b class='flag-5'>模型及其依賴環(huán)境打包成一個可移植的容器,極大地簡化了
    的頭像 發(fā)表于 05-24 16:39 ?164次閱讀