鑒于科學的快速增長和發展,了解使用哪些人工智能技術來推進項目可能具有挑戰性。本文概述了機器學習和深度學習之間的差異,以及如何確定何時應用這兩種方法。
定義:機器學習與深度學習
在機器學習和深度學習中,工程師使用軟件工具(如 MATLAB)使計算機能夠通過從示例數據集中學習來識別數據中的趨勢和特征。在機器學習的情況下,訓練數據用于構建一個模型,計算機可以使用該模型對測試數據進行分類,并最終對真實世界的數據進行分類。傳統上,此工作流中的一個重要步驟是開發特征(從原始數據派生的其他指標),這有助于模型更加準確。
深度學習是機器學習的一個子集,工程師和科學家跳過創建要素的手動步驟。相反,數據被輸入到深度學習算法中,它會自動學習哪些特征對確定輸出最有用。
機器學習:人工智能的一個分支,工程師和科學家在其中手動選擇數據中的特征并訓練模型。常見的機器學習算法包括決策樹、支持向量機、神經網絡和集成方法。
深度學習:機器學習的一個分支,松散地模仿人腦的神經通路,算法會自動學習哪些特征是有用的。常見的深度學習算法包括卷積神經網絡 (CNN)、循環神經網絡和深度 Q 網絡。
項目簡介
機器學習通常用于涉及預測輸出或發現趨勢的項目。在這些示例中,有限的數據主體用于幫助機器學習模式,以便以后使用它們對新的輸入數據做出正確的決定。機器學習中使用的常見算法包括線性回歸、決策樹、支持向量機 (SVM)、樸素貝葉斯、判別分析、神經網絡和集成方法。
深度學習更為復雜,通常用于涉及對圖像進行分類、識別圖像中的對象以及增強圖像和信號的項目。在這些情況下,可以應用深度神經網絡,因為它們旨在從空間和時間組織的數據(如圖像和信號)中自動提取特征。深度學習中使用的常見算法包括卷積神經網絡 (CNN)、遞歸神經網絡 (RNN) 和強化學習(深度 Q 網絡)。
如果您需要更快的結果,機器學習算法可能更可取。它們的訓練速度更快,需要的計算能力更少。特征和觀測值的數量將是影響訓練時間的關鍵因素。應用機器學習的工程師應該花費大部分時間開發和評估特征以提高模型準確性。
深度學習模型需要時間來訓練。預訓練網絡和公共數據集可以通過遷移學習縮短訓練時間,但有時這些可能很難實現。一般來說,深度學習算法可能需要一分鐘到幾周的時間來訓練,具體取決于您的硬件和計算能力。應用深度學習的工程師應該花費大部分時間來訓練模型并修改其深度神經網絡的架構。
選擇機器學習與深度學習的考慮因素
數據注意事項
了解可用的數據集有助于確定是否應將機器學習或深度學習應用于給定任務。
通常,當有更有限的結構化數據可用時,會使用機器學習。大多數機器學習算法旨在將模型訓練為表格數據(組織成獨立的行和列)。如果數據是非表格的,則可以應用機器學習,但它確實需要一些數據操作 - 即傳感器數據可以通過使用常見的統計指標(平均值,中位數,標準差,偏度,峰度等)提取窗口特征來轉換為表格表示,然后與傳統機器學習技術一起使用。
深度學習通常需要大量的訓練數據來確保網絡很可能有數千萬個參數,并且不會過度擬合訓練數據。卷積神經網絡設計用于對圖像數據進行操作,盡管它們也可以通過對信號執行時頻計算(例如頻譜圖)來用于傳感器數據。循環神經網絡,如LSTM(長短期記憶)網絡,旨在對信號和文本等順序數據進行操作。----
可用的硬件和部署
確定應應用哪種AI方法還取決于可用的硬件。
機器學習算法需要較少的計算能力。例如,臺式機 CPU 足以訓練這些模型。
對于深度學習模型,由于更高的內存和計算要求,通常需要專用硬件。專用硬件也是合適的,因為在深度神經網絡中執行的操作(例如卷積)非常適合 GPU 的并行架構。
深度學習模型需要強大的計算能力。如果 GPU 可用,或者是否有時間在 CPU 上運行訓練(這將花費更長的時間),則應考慮它們。
由于與獲取 GPU 相關的高成本,在集群或云上訓練深度學習模型在深度學習中越來越受歡迎。此選項允許多個研究人員共享硬件。
部署到嵌入式 GPU 也越來越受歡迎,因為它可以在部署的環境中提供快速的推理速度。GPU Coder 支持從 MATLAB 中的深度學習模型生成代碼,該模型利用英特爾、NVIDIA和 Arm的優化庫。借助適用于 NVIDIA GPU 的 GPU編碼器支持包,您可以將生成的 CUDA 代碼交叉編譯并部署為嵌入式 GPU 上的獨立應用程序。
不斷發展的科學指南
雖然總是會有反復試驗,但上述內容可以幫助指導決策,并加速剛接觸機器學習和深度學習的工程師和科學家的整體設計過程。通過了解機器學習和深度學習之間的差異,了解項目的最終應用并考慮數據和硬件可用性,設計團隊將更快地了解哪種方法最適合各自的項目。
審核編輯:郭婷
-
機器學習
+關注
關注
66文章
8490瀏覽量
134036 -
深度學習
+關注
關注
73文章
5554瀏覽量
122461
發布評論請先 登錄
BP神經網絡與深度學習的關系
NPU與機器學習算法的關系
NPU在深度學習中的應用
人工智能、機器學習和深度學習存在什么區別

評論