女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

卷積神經網絡的詳細介紹

電子設計 ? 來源:電子設計 ? 作者:電子設計 ? 2020-12-25 16:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

卷積神經網絡(Convolutional Neural Network,CNN)是一種前饋神經網絡,它的人工神經元可以響應一部分覆蓋范圍內的周圍單元,對于大型圖像處理有出色表現。 它包括卷積層(convolutional layer)和池化層(pooling layer)。

對比:卷積神經網絡、全連接神經網絡

左圖:全連接神經網絡(平面),組成:輸入層、激活函數、全連接層

右圖:卷積神經網絡(立體),組成:輸入層、卷積層、激活函數、池化層、全連接層

在卷積神經網絡中有一個重要的概念:深度

卷積層

卷積:在原始的輸入上進行特征的提取。特征提取簡言之就是,在原始輸入上一個小區域一個小區域進行特征的提取,稍后細致講解卷積的計算過程。

上圖中,左方塊是輸入層,尺寸為32*32的3通道圖像。右邊的小方塊是filter,尺寸為5*5,深度為3。將輸入層劃分為多個區域,用filter這個固定尺寸的助手,在輸入層做運算,最終得到一個深度為1的特征圖。

上圖中,展示出一般使用多個filter分別進行卷積,最終得到多個特征圖。

上圖使用了6個filter分別卷積進行特征提取,最終得到6個特征圖。將這6層疊在一起就得到了卷積層輸出的結果。

卷積不僅限于對原始輸入的卷積。藍色方塊是在原始輸入上進行卷積操作,使用了6個filter得到了6個提取特征圖。綠色方塊還能對藍色方塊進行卷積操作,使用了10個filter得到了10個特征圖。每一個filter的深度必須與上一層輸入的深度相等。

直觀理解卷積

以上圖為例:

第一次卷積可以提取出低層次的特征。

第二次卷積可以提取出中層次的特征。

第三次卷積可以提取出高層次的特征。

特征是不斷進行提取和壓縮的,最終能得到比較高層次特征,簡言之就是對原式特征一步又一步的濃縮,最終得到的特征更可靠。利用最后一層特征可以做各種任務:比如分類、回歸等。

卷積計算流程

左區域的三個大矩陣是原式圖像的輸入,RGB三個通道用三個矩陣表示,大小為7*7*3。

Filter W0表示1個filter助手,尺寸為3*3,深度為3(三個矩陣);Filter W1也表示1個filter助手。因為卷積中我們用了2個filter,因此該卷積層結果的輸出深度為2(綠色矩陣有2個)。

Bias b0是Filter W0的偏置項,Bias b1是Filter W1的偏置項。

OutPut是卷積后的輸出,尺寸為3*3,深度為2。

計算過程:

輸入是固定的,filter是指定的,因此計算就是如何得到綠色矩陣。第一步,在輸入矩陣上有一個和filter相同尺寸的滑窗,然后輸入矩陣的在滑窗里的部分與filter矩陣對應位置相乘:

第二步,將3個矩陣產生的結果求和,并加上偏置項,即0+2+0+1=3,因此就得到了輸出矩陣的左上角的3:

第三步,讓每一個filter都執行這樣的操作,變可得到第一個元素:

第四步,滑動窗口2個步長,重復之前步驟進行計算

第五步,最終可以得到,在2個filter下,卷積后生成的深度為2的輸出結果:

思考:

①為什么每次滑動是2個格子?

滑動的步長叫stride記為S。S越小,提取的特征越多,但是S一般不取1,主要考慮時間效率的問題。S也不能太大,否則會漏掉圖像上的信息。

②由于filter的邊長大于S,會造成每次移動滑窗后有交集部分,交集部分意味著多次提取特征,尤其表現在圖像的中間區域提取次數較多,邊緣部分提取次數較少,怎么辦?

一般方法是在圖像外圍加一圈0,細心的同學可能已經注意到了,在演示案例中已經加上這一圈0了,即+pad 1。 +pad n表示加n圈0.

③一次卷積后的輸出特征圖的尺寸是多少呢?

請計算上圖中Output=?

注意:在一層卷積操作里可以有多個filter,他們是尺寸必須相同。

卷積參數共享原則

在卷積神經網絡中,有一個非常重要的特性:權值共享。

所謂的權值共享就是說,給一張輸入圖片,用一個filter去掃這張圖,filter里面的數就叫權重,這張圖每個位置是被同樣的filter掃的,所以權重是一樣的,也就是共享。

池化層

上圖顯示,池化就是對特征圖進行特征壓縮,池化也叫做下采樣。選擇原來某個區域的max或mean代替那個區域,整體就濃縮了。下面演示一下pooling操作,需要制定一個filter的尺寸、stride、pooling方式(max或mean):

卷積神經網絡的組成

卷積——激活——卷積——激活——池化——......——池化——全連接——分類或回歸

前向傳播與反向傳播

之前已經講解了卷積層前向傳播過程,這里通過一張圖再回顧一下:

下面講解卷積層的反向傳播過程:

反向傳播的目的:更新參數w。因此要先算出dJ/dw。假設上一層會傳過來一個梯度dJ/dout,根據鏈式求導法則,因此dJ/dw = dJ/dout * dout/dw =dJ/dout * x 。在計算機中方便為變量命名的緣故,將dJ/dout記為dout,dJ/dw記為dw,即圖中的情況。后面也用這個記號來講。

首先要清楚:dw 和 w 的尺寸是一樣的。一個點乘以一個區域還能得到一個區域。那么反向傳播過程就相當于:用dout中的一個元素乘以輸入層劃窗里的矩陣便得到一個dw矩陣;然后滑動滑窗,繼續求下一個dw,依次下去,最后將得到的多個dw相加,執行 w = w - dw 就完成了反向傳播的計算。

上面的反向傳播可以更新一個filter中的參數,還要求其他的filter。

下面用圖示來看一下2種不同的pooling過程——池化層的前向傳播:

在池化層進行反向傳播時,max-pooling和mean-pooling的方式也采用不同的方式。

對于max-pooling,在前向計算時,是選取的每個2*2區域中的最大值,這里需要記錄下最大值在每個小區域中的位置。在反向傳播時,只有那個最大值對下一層有貢獻,所以將殘差傳遞到該最大值的位置,區域內其他2*2-1=3個位置置零。具體過程如下圖,其中4*4矩陣中非零的位置即為前邊計算出來的每個小區域的最大值的位置

對于mean-pooling,我們需要把殘差平均分成2*2=4份,傳遞到前邊小區域的4個單元即可。具體過程如圖:

卷積網絡架構實例

VGGNet深度更多,有很多卷積層和池化層。一個版本有16層,另一個版本有19層(較常用)。

VGGNet的特點:

filter只有3*3的,意味著計算的特征較多,粒度更細。同時pooling的參數也有固定。

注意:傳統的卷積神經網絡層數越多并以意味著效果更好。而在2016年推出了深度殘差網絡達到了152層。后續講介紹。

那么訓練一個VGGNet有多少內存開銷呢?

從圖可得知,訓練過程中一張224*224*3的圖像會有138M個參數會占93MB的內存。因此每個batch中圖像的數目應該受內存的約束,即 93*圖像數目<內存總容量。

審核編輯:符乾江
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 人工智能
    +關注

    關注

    1806

    文章

    49011

    瀏覽量

    249348
  • 智能計算
    +關注

    關注

    0

    文章

    191

    瀏覽量

    16717
  • 卷積神經網絡

    關注

    4

    文章

    369

    瀏覽量

    12299
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    卷積神經網絡如何監測皮帶堵料情況 #人工智能

    卷積神經網絡
    jf_60804796
    發布于 :2025年07月01日 17:08:42

    BP神經網絡卷積神經網絡的比較

    BP神經網絡卷積神經網絡在多個方面存在顯著差異,以下是對兩者的比較: 一、結構特點 BP神經網絡 : BP神經網絡是一種多層的前饋
    的頭像 發表于 02-12 15:53 ?661次閱讀

    什么是BP神經網絡的反向傳播算法

    BP神經網絡的反向傳播算法(Backpropagation Algorithm)是一種用于訓練神經網絡的有效方法。以下是關于BP神經網絡的反向傳播算法的介紹: 一、基本概念 反向傳播算
    的頭像 發表于 02-12 15:18 ?765次閱讀

    BP神經網絡與深度學習的關系

    BP神經網絡與深度學習之間存在著密切的關系,以下是對它們之間關系的介紹: 一、BP神經網絡的基本概念 BP神經網絡,即反向傳播神經網絡(Ba
    的頭像 發表于 02-12 15:15 ?851次閱讀

    人工神經網絡的原理和多種神經網絡架構方法

    在上一篇文章中,我們介紹了傳統機器學習的基礎知識和多種算法。在本文中,我們會介紹人工神經網絡的原理和多種神經網絡架構方法,供各位老師選擇。 01 人工
    的頭像 發表于 01-09 10:24 ?1183次閱讀
    人工<b class='flag-5'>神經網絡</b>的原理和多種<b class='flag-5'>神經網絡</b>架構方法

    卷積神經網絡的實現工具與框架

    卷積神經網絡因其在圖像和視頻處理任務中的卓越性能而廣受歡迎。隨著深度學習技術的快速發展,多種實現工具和框架應運而生,為研究人員和開發者提供了強大的支持。 TensorFlow 概述
    的頭像 發表于 11-15 15:20 ?668次閱讀

    卷積神經網絡的參數調整方法

    卷積神經網絡因其在處理具有空間層次結構的數據時的卓越性能而受到青睞。然而,CNN的成功很大程度上依賴于其參數的合理設置。參數調整是一個復雜的過程,涉及到多個超參數的選擇和優化。 網絡架構參數
    的頭像 發表于 11-15 15:10 ?1206次閱讀

    卷積神經網絡在自然語言處理中的應用

    自然語言處理是人工智能領域的一個重要分支,它致力于使計算機能夠理解、解釋和生成人類語言。隨著深度學習技術的發展,卷積神經網絡(CNNs)作為一種強大的模型,在圖像識別和語音處理等領域取得了顯著成果
    的頭像 發表于 11-15 14:58 ?802次閱讀

    卷積神經網絡與傳統神經網絡的比較

    在深度學習領域,神經網絡模型被廣泛應用于各種任務,如圖像識別、自然語言處理和游戲智能等。其中,卷積神經網絡(CNNs)和傳統神經網絡是兩種常見的模型。 1. 結構差異 1.1 傳統
    的頭像 發表于 11-15 14:53 ?1865次閱讀

    深度學習中的卷積神經網絡模型

    深度學習近年來在多個領域取得了顯著的進展,尤其是在圖像識別、語音識別和自然語言處理等方面。卷積神經網絡作為深度學習的一個分支,因其在圖像處理任務中的卓越性能而受到廣泛關注。 卷積神經網絡
    的頭像 發表于 11-15 14:52 ?844次閱讀

    卷積神經網絡的基本原理與算法

    卷積神經網絡(Convolutional Neural Networks,CNN)是一類包含卷積計算且具有深度結構的前饋神經網絡(Feedforward Neural Networks
    的頭像 發表于 11-15 14:47 ?1773次閱讀

    RNN模型與傳統神經網絡的區別

    神經網絡是機器學習領域中的一種強大工具,它們能夠模擬人腦處理信息的方式。隨著技術的發展,神經網絡的類型也在不斷增加,其中循環神經網絡(RNN)和傳統神經網絡(如前饋
    的頭像 發表于 11-15 09:42 ?1125次閱讀

    LSTM神經網絡的結構與工作機制

    的結構與工作機制的介紹: 一、LSTM神經網絡的結構 LSTM神經網絡的結構主要包括以下幾個部分: 記憶單元(Memory Cell) : 記憶單元是LSTM網絡的核心,負責在整個序列
    的頭像 發表于 11-13 10:05 ?1628次閱讀

    關于卷積神經網絡,這些概念你厘清了么~

    隨著人工智能(AI)技術的快速發展,AI可以越來越多地支持以前無法實現或者難以實現的應用。本文基于此解釋了 卷積神經網絡 (CNN)及其對人工智能和機器學習的意義。CNN是一種能夠從復雜數據中提
    發表于 10-24 13:56

    matlab 神經網絡 數學建模數值分析

    matlab神經網絡 數學建模數值分析 精通的可以討論下
    發表于 09-18 15:14