女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

卷積神經(jīng)網(wǎng)絡(luò)四種卷積類型

Dbwd_Imgtec ? 來源:lp ? 2019-04-19 16:48 ? 次閱讀

使用內(nèi)核大小為3,步長為1和填充的2D卷積

一般卷積

首先,我們需要就定義卷積層的一些參數(shù)達成一致。

卷積核大小(KernelSize):卷積核定義了卷積的大小范圍,二維卷積核最常見的就是3*3的卷積核。

步長(Stride):步長定義了當卷積核在圖像上面進行卷積操作的時候,每次卷積跨越的長度。在默認情況下,步長通常為1,但我們也可以采用步長是2的下采樣過程,類似于MaxPooling操作。

填充(Padding):卷積層采用一定數(shù)量的輸入通道(I),并且設(shè)計特定數(shù)量的輸出通道(O)。每一層所需的參數(shù)可以通過I*O*K來進行計算,其中K等于卷積核的數(shù)量。

輸入和輸出管道(Input&OutputChannels):卷積層采用一定數(shù)量的輸入通道

擴張的卷積

使用3內(nèi)核進行2D卷積,擴展率為2且無填充

擴張的卷積為卷積層引入另一個參數(shù),稱為擴張率。這定義了卷積核中值之間的間距。擴張率為2的3x3內(nèi)核與5x5內(nèi)核具有相同的視野,而僅使用9個參數(shù)。想象一下,獲取一個5x5內(nèi)核并刪除每一個第二列和第二行(間隔刪除),就是我們介紹的卷積。

這以相同的計算成本提供了更寬的視野。擴張卷積在實時分割領(lǐng)域中特別受歡迎。如果您需要廣泛的視野并且無法承受多個卷積或更大的核,請使用它們。

轉(zhuǎn)置卷積

(又稱解卷積或分數(shù)跨度卷積)

有些消息來源使用名稱deconvolution,這是不合適的,因為它不是解卷積。為了使事情更糟,確實存在解卷積,但它們在深度學習領(lǐng)域并不常見。實際的反卷積會使卷積過程恢復(fù)。想象一下,將圖像輸入到單個卷積層中。現(xiàn)在取出輸出,將它扔進一個黑盒子里然后再出現(xiàn)原始圖像。這個黑盒子進行反卷積。它是卷積層的數(shù)學逆。

轉(zhuǎn)置卷積有點類似,因為它產(chǎn)生與假設(shè)的反卷積層相同的空間分辨率。但是,對值執(zhí)行的實際數(shù)學運算是不同的。轉(zhuǎn)置卷積層執(zhí)行常規(guī)卷積,但恢復(fù)其空間變換。

2D卷積,沒有填充,步幅為2,內(nèi)核為3

此時你應(yīng)該很困惑,讓我們看一個具體的例子。將5×5的圖像送入卷積層。步幅設(shè)置為2,填充停用,內(nèi)核為3x3。這導(dǎo)致2x2圖像。

如果我們想要反轉(zhuǎn)這個過程,我們需要逆數(shù)學運算,以便從我們輸入的每個像素生成9個值。然后,我們以2的步幅遍歷輸出圖像。這將是反卷積。

轉(zhuǎn)換2D卷積,沒有填充,步幅為2,內(nèi)核為3

轉(zhuǎn)置卷積不會這樣做。唯一的共同點是它保證輸出也是5x5圖像,同時仍然執(zhí)行正常的卷積操作。為此,我們需要在輸入上執(zhí)行一些花哨的填充。

正如您現(xiàn)在可以想象的那樣,此步驟不會從上面顛倒過程。至少不涉及數(shù)值。

它只是從之前重建空間分辨率并執(zhí)行卷積。這可能不是數(shù)學逆,但對于編碼器-解碼器架構(gòu),它仍然非常有用。這樣我們就可以將圖像的升級與卷積相結(jié)合,而不是進行兩個單獨的處理。

可分離的卷積

在可分離的卷積中,我們可以將內(nèi)核操作分成多個步驟。讓我們將卷積表示為y=conv(x,k),其中y是輸出圖像,x是輸入圖像,k是核。簡單。接下來,假設(shè)k可以通過以下公式計算:k=k1.dot(k2)。這將使它成為可分離的卷積,因為我們可以通過用k1和k2進行2個1D卷積來得到相同的結(jié)果,而不是用k進行2D卷積。

Sobel X和Y濾鏡

以Sobel內(nèi)核為例,它通常用于圖像處理。你可以通過乘以向量[1,0,-1]和[1,2,1].T得到相同的內(nèi)核。在執(zhí)行相同操作時,這將需要6個而不是9個參數(shù)。上面的例子顯示了所謂的空間可分卷積,據(jù)我所知,它不用于深度學習。

編輯:實際上,通過堆疊1xN和Nx1內(nèi)核層,可以創(chuàng)建與空間可分離卷積非常相似的東西。這最近在一個名為EffNet的架構(gòu)中使用,顯示了有希望的結(jié)果。

神經(jīng)網(wǎng)絡(luò)中,我們通常使用稱為深度可分離卷積的東西。這將執(zhí)行空間卷積,同時保持通道分離,然后進行深度卷積。在我看來,通過一個例子可以最好地理解它。

假設(shè)我們在16個輸入通道和32個輸出通道上有一個3x3卷積層。詳細情況是,32個3x3核遍歷16個通道中的每個通道,產(chǎn)生512(16x32)個特征映射。接下來,我們通過添加它們來合并每個輸入通道中的1個特征圖。由于我們可以做32次,我們得到了我們想要的32個輸出通道。

對于同一示例中的深度可分離卷積,我們遍歷16個通道,每個通道有1個3x3內(nèi)核,為我們提供了16個特征映射。現(xiàn)在,在合并任何東西之前,我們遍歷這16個特征映射,每個特征映射有32個1x1卷積,然后才開始將它們加在一起。這導(dǎo)致656(16x3x3+16x32x1x1)參數(shù)與上面的4608(16x32x3x3)參數(shù)相反。

該示例是深度可分離卷積的特定實現(xiàn),其中所謂的深度乘數(shù)為1.這是迄今為止這種層的最常見設(shè)置。我們這樣做是因為空間和深度信息可以解耦的假設(shè)。看一下Xception模型的表現(xiàn),這個理論似乎有效。由于其有效使用參數(shù),深度可分離卷積也用于移動設(shè)備。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4809

    瀏覽量

    102834
  • 圖像
    +關(guān)注

    關(guān)注

    2

    文章

    1092

    瀏覽量

    41038
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5555

    瀏覽量

    122499

原文標題:卷積神經(jīng)網(wǎng)絡(luò)四種卷積類型

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦
    熱點推薦

    什么是卷積神經(jīng)網(wǎng)絡(luò)?完整的卷積神經(jīng)網(wǎng)絡(luò)(CNNS)解析

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)是一特殊類型神經(jīng)網(wǎng)絡(luò),在圖像上表現(xiàn)特別出色。卷積
    發(fā)表于 08-10 11:49 ?1.9w次閱讀

    利用Keras實現(xiàn)四種卷積神經(jīng)網(wǎng)絡(luò)(CNN)可視化

    Keras實現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)(CNN)可視化
    發(fā)表于 07-12 11:01

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會在意它呢? 對于這些非常中肯的問題,我們似乎可以給出相對簡明的答案。
    發(fā)表于 07-17 07:21

    什么是圖卷積神經(jīng)網(wǎng)絡(luò)

    卷積神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 08-20 12:05

    卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點是什么

    卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點
    發(fā)表于 05-05 18:12

    卷積神經(jīng)網(wǎng)絡(luò)一維卷積的處理過程

    。本文就以一維卷積神經(jīng)網(wǎng)絡(luò)為例談?wù)勗趺磥磉M一步優(yōu)化卷積神經(jīng)網(wǎng)絡(luò)使用的memory。文章(卷積神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 12-23 06:16

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    十余年來快速發(fā)展的嶄新領(lǐng)域,越來越受到研究者的關(guān)注。卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型是深度學習模型中最重要的一經(jīng)典結(jié)構(gòu),其性能在近年來深度學習任務(wù)上逐步提高。由于可以自動學習樣本數(shù)據(jù)的特征表示,
    發(fā)表于 08-02 10:39

    卷積神經(jīng)網(wǎng)絡(luò)原理:卷積神經(jīng)網(wǎng)絡(luò)模型和卷積神經(jīng)網(wǎng)絡(luò)算法

    卷積神經(jīng)網(wǎng)絡(luò)原理:卷積神經(jīng)網(wǎng)絡(luò)模型和卷積神經(jīng)網(wǎng)絡(luò)算法 卷積
    的頭像 發(fā)表于 08-17 16:30 ?1803次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用 卷積神經(jīng)網(wǎng)絡(luò)通常用來處理什么

    卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用 卷積神經(jīng)網(wǎng)絡(luò)通常用來處理什么 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Ne
    的頭像 發(fā)表于 08-21 16:41 ?5466次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)的特點 cnn卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)的特點 cnn卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點?
    的頭像 發(fā)表于 08-21 16:41 ?3674次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理 卷積神經(jīng)網(wǎng)絡(luò)發(fā)展 卷積神經(jīng)網(wǎng)絡(luò)三大特點

    中最重要的神經(jīng)網(wǎng)絡(luò)之一。它是一由多個卷積層和池化層(也可稱為下采樣層)組成的神經(jīng)網(wǎng)絡(luò)。CNN 的基本思想是以圖像為輸入,通過網(wǎng)絡(luò)
    的頭像 發(fā)表于 08-21 16:49 ?3028次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)層級結(jié)構(gòu) 卷積神經(jīng)網(wǎng)絡(luò)卷積層講解

    卷積神經(jīng)網(wǎng)絡(luò)層級結(jié)構(gòu) 卷積神經(jīng)網(wǎng)絡(luò)卷積層講解 卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 08-21 16:49 ?9694次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法

    卷積神經(jīng)網(wǎng)絡(luò)的介紹 什么是卷積神經(jīng)網(wǎng)絡(luò)算法 卷積神經(jīng)網(wǎng)絡(luò)涉及的關(guān)鍵技術(shù)
    的頭像 發(fā)表于 08-21 16:49 ?2265次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理與實現(xiàn)

    1.卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一深度學習模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。 卷積
    的頭像 發(fā)表于 07-02 16:47 ?1169次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練的是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是一深度學習模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。本文將詳細介紹卷積
    的頭像 發(fā)表于 07-03 09:15 ?864次閱讀