女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

科普主流的神經網絡模型及應用場景

ml8z_IV_Technol ? 2018-12-01 09:18 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

深度學習大熱以后各種模型層出不窮,很多朋友都在問到底什么是DNN、CNN和RNN,這么多個網絡到底有什么不同,作用各是什么?

在本文我也想介紹一下主流的神經網絡模型。因為格式問題和傳播原因,我把原回答內容在這篇文章中再次向大家介紹。

大部分神經網絡都可以用深度(depth)和連接結構(connection)來定義,下面會具體情況具體分析。

籠統的說,神經網絡也可以分為有監督的神經網絡和無/半監督學習,但其實往往是你中有我我中有你,不必死摳字眼。

有鑒于篇幅,只能粗略的科普一下這些非常相似的網絡以及應用場景,具體的細節無法展開詳談,有機會在以后深入解析。

文章中介紹的網絡包括:

1. 有監督的神經網絡(Supervised Neural Networks) 1.1. 神經網絡(Artificial Neural Networks)和深度神經網絡(Deep Neural Networks)

追根溯源的話,神經網絡的基礎模型是感知機(Perceptron),因此神經網絡也可以叫做多層感知機(Multi-layer Perceptron),簡稱MLP。單層感知機叫做感知機,多層感知機(MLP)≈人工神經網絡(ANN)。

那么多層到底是幾層?一般來說有1-2個隱藏層的神經網絡就可以叫做多層,準確的說是(淺層)神經網絡(Shallow Neural Networks)。隨著隱藏層的增多,更深的神經網絡(一般來說超過5層)就都叫做深度學習(DNN)。

然而,“深度”只是一個商業概念,很多時候工業界把3層隱藏層也叫做“深度學習”,所以不要在層數上太較真。在機器學習領域的約定俗成是,名字中有深度(Deep)的網絡僅代表其有超過5-7層的隱藏層。

神經網絡的結構指的是“神經元”之間如何連接,它可以是任意深度。以下圖的3種不同結構為例,我們可以看到連接結構是非常靈活多樣的。

需要特別指出的是,卷積網絡(CNN)和循環網絡(RNN)一般不加Deep在名字中的原因是:它們的結構一般都較深,因此不需要特別指明深度。想對比的,自編碼器(Auto Encoder)可以是很淺的網絡,也可以很深。所以你會看到人們用Deep Auto Encoder來特別指明其深度。

應用場景:全連接的前饋深度神經網絡(Fully Connected Feed Forward Neural Networks),也就是DNN適用于大部分分類(Classification)任務,比如數字識別等。但一般的現實場景中我們很少有那么大的數據量來支持DNN,所以純粹的全連接網絡應用性并不是很強。

1. 2. 循環神經網絡(Recurrent Neural Networks)和遞歸神經網絡(Recursive Neural Networks)

雖然很多時候我們把這兩種網絡都叫做RNN,但事實上這兩種網路的結構事實上是不同的。而我們常常把兩個網絡放在一起的原因是:它們都可以處理有序列的問題,比如時間序列等。

舉個最簡單的例子,我們預測股票走勢用RNN就比普通的DNN效果要好,原因是股票走勢和時間相關,今天的價格和昨天、上周、上個月都有關系。而RNN有“記憶”能力,可以“模擬”數據間的依賴關系(Dependency)。

為了加強這種“記憶能力”,人們開發各種各樣的變形體,如非常著名的Long Short-term Memory(LSTM),用于解決“長期及遠距離的依賴關系”。如下圖所示,左邊的小圖是最簡單版本的循環網絡,而右邊是人們為了增強記憶能力而開發的LSTM。

同理,另一個循環網絡的變種 - 雙向循環網絡(Bi-directional RNN)也是現階段自然語言處理和語音分析中的重要模型。開發雙向循環網絡的原因是語言/語音的構成取決于上下文,即“現在”依托于“過去”和“未來”。單向的循環網絡僅著重于從“過去”推出“現在”,而無法對“未來”的依賴性有效的建模。

遞歸神經網絡和循環神經網絡不同,它的計算圖結構是樹狀結構而不是網狀結構。遞歸循環網絡的目標和循環網絡相似,也是希望解決數據之間的長期依賴問題。而且其比較好的特點是用樹狀可以降低序列的長度,從O(n)降低到O(log(n)),熟悉數據結構的朋友都不陌生。但和其他樹狀數據結構一樣,如何構造最佳的樹狀結構如平衡樹/平衡二叉樹并不容易。

應用場景:語音分析,文字分析,時間序列分析。主要的重點就是數據之間存在前后依賴關系,有序列關系。一般首選LSTM,如果預測對象同時取決于過去和未來,可以選擇雙向結構,如雙向LSTM。

1.3. 卷積網絡(Convolutional Neural Networks)

卷積網絡早已大名鼎鼎,從某種意義上也是為深度學習打下良好口碑的功臣。不僅如此,卷積網絡也是一個很好的計算機科學借鑒神經科學的例子。卷積網絡的精髓其實就是在多個空間位置上共享參數,據說我們的視覺系統也有相類似的模式。

首先簡單說什么是卷積。卷積運算是一種數學計算,和矩陣相乘不同,卷積運算可以實現稀疏相乘和參數共享,可以壓縮輸入端的維度。和普通DNN不同,CNN并不需要為每一個神經元所對應的每一個輸入數據提供單獨的權重。

與池化(pooling)相結合,CNN可以被理解為一種公共特征的提取過程,不僅是CNN大部分神經網絡都可以近似的認為大部分神經元都被用于特征提取。

以上圖為例,卷積、池化的過程將一張圖片的維度進行了壓縮。從圖示上我們不難看出卷積網絡的精髓就是適合處理結構化數據,而該數據在跨區域上依然有關聯。

應用場景:雖然我們一般都把CNN和圖片聯系在一起,但事實上CNN可以處理大部分格狀結構化數據(Grid-like Data)。舉個例子,圖片的像素是二維的格狀數據,時間序列在等時間上抽取相當于一維的的格狀數據,而視頻數據可以理解為對應視頻幀寬度、高度、時間的三維數據。

2. 無監督的預訓練網絡(Unsupervised Pre-trained Neural Networks) 2.1. 深度生成模型(Deep Generative Models)

說到生成模型,大家一般想到的無監督學習中的很多建模方法,比如擬合一個高斯混合模型或者使用貝葉斯模型。深度學習中的生成模型主要還是集中于想使用無監督學習來幫助監督學習,畢竟監督學習所需的標簽代價往往很高…所以請大家不要較真我把這些方法放在了無監督學習中。

2.1.1. 玻爾茲曼機(Boltzmann Machines)和受限玻爾茲曼機(Restricted Boltzmann Machines)

每次一提到玻爾茲曼機和受限玻爾茲曼機我其實都很頭疼。簡單的說,玻爾茲曼機是一個很漂亮的基于能量的模型,一般用最大似然法進行學習,而且還符合Hebb’s Rule這個生物規律。但更多的是適合理論推演,有相當多的實際操作難度。

而受限玻爾茲曼機更加實際,它限定了其結構必須是二分圖(Biparitite Graph)且隱藏層和可觀測層之間不可以相連接。此處提及RBM的原因是因為它是深度信念網絡的構成要素之一。

應用場景:實際工作中一般不推薦單獨使用RBM…

2.1.2. 深度信念網絡(Deep Belief Neural Networks)

DBN是祖師爺Hinton在06年提出的,主要有兩個部分: 1. 堆疊的受限玻爾茲曼機(Stacked RBM) 2. 一層普通的前饋網絡。

DBN最主要的特色可以理解為兩階段學習,階段1用堆疊的RBM通過無監督學習進行預訓練(Pre-train),階段2用普通的前饋網絡進行微調。

就像我上文提到的,神經網絡的精髓就是進行特征提取。和后文將提到的自動編碼器相似,我們期待堆疊的RBF有數據重建能力,及輸入一些數據經過RBF我們還可以重建這些數據,這代表我們學到了這些數據的重要特征。

將RBF堆疊的原因就是將底層RBF學到的特征逐漸傳遞的上層的RBF上,逐漸抽取復雜的特征。比如下圖從左到右就可以是低層RBF學到的特征到高層RBF學到的復雜特征。在得到這些良好的特征后就可以用第二部分的傳統神經網絡進行學習。

多說一句,特征抽取并重建的過程不僅可以用堆疊的RBM,也可以用后文介紹的自編碼器。

應用場景:現在來說DBN更多是了解深度學習“哲學”和“思維模式”的一個手段,在實際應用中還是推薦CNN/RNN等,類似的深度玻爾茲曼機也有類似的特性但工業界使用較少。

2.1.3. 生成式對抗網絡(Generative Adversarial Networks)

生成式對抗網絡用無監督學習同時訓練兩個模型,內核哲學取自于博弈論…

簡單的說,GAN訓練兩個網絡:1. 生成網絡用于生成圖片使其與訓練數據相似 2. 判別式網絡用于判斷生成網絡中得到的圖片是否是真的是訓練數據還是偽裝的數據。生成網絡一般有逆卷積層(deconvolutional layer)而判別網絡一般就是上文介紹的CNN。自古紅藍出CP,下圖左邊是生成網絡,右邊是判別網絡,相愛相殺。

熟悉博弈論的朋友都知道零和游戲(zero-sum game)會很難得到優化方程,或很難優化,GAN也不可避免這個問題。但有趣的是,GAN的實際表現比我們預期的要好,而且所需的參數也遠遠按照正常方法訓練神經網絡,可以更加有效率的學到數據的分布。

另一個常常被放在GAN一起討論的模型叫做變分自編碼器(Variational Auto-encoder),有興趣的讀者可以自己搜索。

應用場景:現階段的GAN還主要是在圖像領域比較流行,但很多人都認為它有很大的潛力大規模推廣到聲音、視頻領域。

2.2. 自編碼器(Auto-encoder)

自編碼器是一種從名字上完全看不出和神經網絡有什么關系的無監督神經網絡,而且從名字上看也很難猜測其作用。讓我們看一幅圖了解它的工作原理

如上圖所示,Autoencoder主要有2個部分:1. 編碼器(Encoder) 2. 解碼器(Decoder)。我們將輸入(圖片2)從左端輸入后,經過了編碼器和解碼器,我們得到了輸出….一個2。但事實上我們真正學習到是中間的用紅色標注的部分,即數在低維度的壓縮表示。評估自編碼器的方法是重建誤差,即輸出的那個數字2和原始輸入的數字2之間的差別,當然越小越好。

和主成分分析(PCA)類似,自編碼器也可以用來進行數據壓縮(Data Compression),從原始數據中提取最重要的特征。認真的讀者應該已經發現輸入的那個數字2和輸出的數字2略有不同,這是因為數據壓縮中的損失,非常正常。

應用場景:主要用于降維(Dimension Reduction),這點和PCA比較類似。同時也有專門用于去除噪音還原原始數據的去噪編碼器(Denoising Auto-encoder)。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 編碼器
    +關注

    關注

    45

    文章

    3808

    瀏覽量

    138110
  • 神經網絡
    +關注

    關注

    42

    文章

    4814

    瀏覽量

    103695

原文標題:主流的深度學習模型有哪些?

文章出處:【微信號:IV_Technology,微信公眾號:智車科技】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    無刷電機小波神經網絡轉子位置檢測方法的研究

    摘要:論文通過對無刷電機數學模型的推導,得出轉角:與三相相電壓之間存在映射關系,因此構建了一個以三相相電壓為輸人,轉角為輸出的小波神經網絡來實現轉角預測,并采用改進遺傳算法來訓練網絡結構與參數,借助
    發表于 06-25 13:06

    基于FPGA搭建神經網絡的步驟解析

    本文的目的是在一個神經網絡已經通過python或者MATLAB訓練好的神經網絡模型,將訓練好的模型的權重和偏置文件以TXT文件格式導出,然后通過python程序將txt文件轉化為coe
    的頭像 發表于 06-03 15:51 ?417次閱讀
    基于FPGA搭建<b class='flag-5'>神經網絡</b>的步驟解析

    BP神經網絡與卷積神經網絡的比較

    BP神經網絡與卷積神經網絡在多個方面存在顯著差異,以下是對兩者的比較: 一、結構特點 BP神經網絡 : BP神經網絡是一種多層的前饋神經網絡
    的頭像 發表于 02-12 15:53 ?676次閱讀

    如何優化BP神經網絡的學習率

    優化BP神經網絡的學習率是提高模型訓練效率和性能的關鍵步驟。以下是一些優化BP神經網絡學習率的方法: 一、理解學習率的重要性 學習率決定了模型參數在每次迭代時更新的幅度。過大的學習率可
    的頭像 發表于 02-12 15:51 ?943次閱讀

    BP神經網絡的優缺點分析

    BP神經網絡(Back Propagation Neural Network)作為一種常用的機器學習模型,具有顯著的優點,同時也存在一些不容忽視的缺點。以下是對BP神經網絡優缺點的分析: 優點
    的頭像 發表于 02-12 15:36 ?930次閱讀

    BP神經網絡與深度學習的關系

    BP神經網絡與深度學習之間存在著密切的關系,以下是對它們之間關系的介紹: 一、BP神經網絡的基本概念 BP神經網絡,即反向傳播神經網絡(Backpropagation Neural N
    的頭像 發表于 02-12 15:15 ?867次閱讀

    如何訓練BP神經網絡模型

    BP(Back Propagation)神經網絡是一種經典的人工神經網絡模型,其訓練過程主要分為兩個階段:前向傳播和反向傳播。以下是訓練BP神經網絡
    的頭像 發表于 02-12 15:10 ?931次閱讀

    人工神經網絡的原理和多種神經網絡架構方法

    在上一篇文章中,我們介紹了傳統機器學習的基礎知識和多種算法。在本文中,我們會介紹人工神經網絡的原理和多種神經網絡架構方法,供各位老師選擇。 01 人工神經網絡 ? 人工神經網絡
    的頭像 發表于 01-09 10:24 ?1213次閱讀
    人工<b class='flag-5'>神經網絡</b>的原理和多種<b class='flag-5'>神經網絡</b>架構方法

    ANN神經網絡——器件建模

    隨著半導體行業的新材料、新工藝、新器件的不斷發展,人工神經網絡作為一種替代方法已經被引入器件建模領域。本文介紹了ANN神經網絡建模的起源、優勢、實現方式和應用場景。 ? 隨著半導體行業的新材料
    的頭像 發表于 01-06 13:41 ?1010次閱讀
    ANN<b class='flag-5'>神經網絡</b>——器件建模

    卷積神經網絡與傳統神經網絡的比較

    在深度學習領域,神經網絡模型被廣泛應用于各種任務,如圖像識別、自然語言處理和游戲智能等。其中,卷積神經網絡(CNNs)和傳統神經網絡是兩種常見的模型
    的頭像 發表于 11-15 14:53 ?1882次閱讀

    RNN模型與傳統神經網絡的區別

    神經網絡是機器學習領域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術的發展,神經網絡的類型也在不斷增加,其中循環神經網絡(RNN)和傳統神經網絡(如前饋
    的頭像 發表于 11-15 09:42 ?1134次閱讀

    LSTM神經網絡的訓練數據準備方法

    : 一、數據收集與清洗 數據收集 : 根據LSTM神經網絡的應用場景(如時間序列預測、自然語言處理等),收集相關的時間序列數據或文本數據。 數據可以來自數據庫、日志文件、傳感器讀數、用戶行為記錄等多種來源。 數據清洗 : 去除數據中的噪聲和異常值,例如去除缺失值、
    的頭像 發表于 11-13 10:08 ?2131次閱讀

    【飛凌嵌入式OK3576-C開發板體驗】RKNN神經網絡-車牌識別

    LPRNet基于深層神經網絡設計,通過輕量級的卷積神經網絡實現車牌識別。它采用端到端的訓練方式,不依賴字符分割,能夠直接處理整張車牌圖像,并輸出最終的字符序列。這種設計提高了識別的實時性和準確性
    發表于 10-10 16:40

    matlab 神經網絡 數學建模數值分析

    matlab神經網絡 數學建模數值分析 精通的可以討論下
    發表于 09-18 15:14

    UNet模型屬于哪種神經網絡

    U-Net模型屬于卷積神經網絡(Convolutional Neural Network, CNN)的一種特殊形式 。它最初由德國弗萊堡大學計算機科學系的研究人員在2015年提出,專為生物醫學圖像
    的頭像 發表于 07-24 10:59 ?5570次閱讀