女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

卷積神經網絡三大特點_卷積神經網絡代碼實現

姚小熊27 ? 來源:與非網.博客園 ? 作者:與非網.博客園 ? 2021-05-11 16:41 ? 次閱讀

卷積神經網絡三大特點

1.局部連接,局部連接會大大減少網絡的參數。在處理圖像這樣的高維度輸入時,讓每個神經元都與前一層中的所有神經元進行全連接是不現實的。讓每個神經元只與輸入數據的一個局部區域連接,該連接的空間大小叫做神經元的感受野,它的尺寸是一個超參數,其實就是濾波器的空間尺寸。

2.權值共享,在卷積層中使用參數共享是用來控制參數的數量。每個濾波器與上一層局部連接,同時每個濾波器的所有局部連接都使用同樣的參數,此舉會同樣大大減少網絡的參數。

3.空間或時間上的下采樣,它的作用是逐漸降低數據的空間尺寸,這樣的話就能減少網絡中參數的數量,使得計算資源耗費變少,也能有效控制過擬合。

卷積神經網絡代碼實現

卷積神經網絡【Convolutional Neural Networks,CNN】是一類包含卷積計算且具有深度結構的前饋神經網絡【Feedforward Neural Networks】是深度學習的代表算法之一。卷積神經網絡具有表征學習【representation learning】能力,能夠按其階層結構對輸入信息進行平移不變分類。

神經網絡實質上是多層函數嵌套形成的數學模型。1998年Yann LeCun等人推出了LeNet-5架構,廣泛用于手寫字體識別,包含全連接層和sigmoid激活函數,還有卷積層和池化層。

1 # -*- coding: utf-8 -*-

2 “”“

3 Created on Wed Nov 21 17:32:28 2018

4

5 @author: zhen

6 ”“”

7

8 import tensorflow as tf

9 from tensorflow.examples.tutorials.mnist import input_data

10

11 mnist = input_data.read_data_sets(‘C:/Users/zhen/MNIST_data_bak/’, one_hot=True)

12 sess = tf.InteractiveSession()

13

14 def weight_variable(shape):

15 initial = tf.truncated_normal(shape, stddev=0.1)

16 return tf.Variable(initial)

17

18 def bias_variable(shape):

19 initial = tf.constant(0.1, shape=shape)

20 return tf.Variable(initial)

21

22 def conv2d(x, W):

23 return tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding=‘SAME’)

24

25 def max_pool_2x2(x):

26 return tf.nn.max_pool(x, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1], padding=‘SAME’)

27

28 x = tf.placeholder(tf.float32, [None, 784])

29 y = tf.placeholder(tf.float32, [None, 10])

30 x_image = tf.reshape(x, [-1, 28, 28, 1])

31

32 # 第一層卷積核

33 W_conv = weight_variable([5, 5, 1, 16])

34 b_conv = bias_variable([16])

35 h_conv = tf.nn.relu(conv2d(x_image, W_conv) + b_conv)

36 h_pool = max_pool_2x2(h_conv)

37

38 # 第二層卷積核

39 W_conv2 = weight_variable([5, 5, 16, 32])

40 b_conv2 = bias_variable([32])

41 h_conv2 = tf.nn.relu(conv2d(h_pool, W_conv2) + b_conv2)

42 h_pool2 = max_pool_2x2(h_conv2)

43

44 # 全連接層

45 W_fc = weight_variable([7 * 7 * 32, 512])

46 b_fc = bias_variable([512])

47 h_pool_flat = tf.reshape(h_pool2, [-1, 7 * 7 * 32])

48 h_fc = tf.nn.relu(tf.matmul(h_pool_flat, W_fc) + b_fc)

49

50 # 防止過擬合,使用Dropout層

51 keep_prob = tf.placeholder(tf.float32)

52 h_fc_drop = tf.nn.dropout(h_fc, keep_prob)

53

54 # Softmax分類

55 W_fc2 = weight_variable([512, 10])

56 b_fc2 = bias_variable([10])

57 y_conv = tf.nn.softmax(tf.matmul(h_fc_drop, W_fc2) + b_fc2)

58

59 # 定義損失函數

60 cross_entropy = tf.reduce_mean(-tf.reduce_sum(y * tf.log(y_conv), reduction_indices=[1]))

61 train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)

62 correct_prediction = tf.equal(tf.argmax(y_conv, 1), tf.argmax(y, 1))

63 accuracy = tf.reduce_mean(tf.cast(correct_prediction, tf.float32))

64

65 # 訓練

66 tf.global_variables_initializer().run()

67 for i in range(20):

68 batch = mnist.train.next_batch(50)

69 train_step.run(feed_dict={x:batch[0], y:batch[1], keep_prob:0.5})

70

71 print(“test accuracy %g” % accuracy.eval(feed_dict={x:mnist.test.images, y:mnist.test.labels, keep_prob:1.0}))

結果:

1.算法模型不變,增大訓練集數據【隱藏一層16個卷積核,隱藏二層32個卷積核,全連接層512,10分類】:

2.訓練集數據不變,增大卷積核數【數據集為10000,全連接層512,10分類】:

責任編輯:YYX

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • cnn
    cnn
    +關注

    關注

    3

    文章

    354

    瀏覽量

    22619
  • 卷積神經網絡

    關注

    4

    文章

    369

    瀏覽量

    12170
收藏 人收藏

    評論

    相關推薦
    熱點推薦

    BP神經網絡卷積神經網絡的比較

    BP神經網絡卷積神經網絡在多個方面存在顯著差異,以下是對兩者的比較: 一、結構特點 BP神經網絡 : BP
    的頭像 發表于 02-12 15:53 ?440次閱讀

    卷積神經網絡與傳統神經網絡的比較

    神經網絡,也稱為全連接神經網絡(Fully Connected Neural Networks,FCNs),其特點是每一層的每個神經元都與下一層的所有
    的頭像 發表于 11-15 14:53 ?1501次閱讀

    卷積神經網絡的基本概念、原理及特點

    的基本概念、原理、特點以及在不同領域的應用情況。 一、卷積神經網絡的基本概念 卷積神經網絡是一種深度學習算法,它由多層
    的頭像 發表于 07-11 14:38 ?2141次閱讀

    BP神經網絡卷積神經網絡的關系

    廣泛應用的神經網絡模型。它們各自具有獨特的特點和優勢,并在不同的應用場景中發揮著重要作用。以下是對BP神經網絡卷積神經網絡關系的詳細探討,
    的頭像 發表于 07-10 15:24 ?2182次閱讀

    循環神經網絡卷積神經網絡的區別

    結構。它們在處理不同類型的數據和解決不同問題時具有各自的優勢和特點。本文將從多個方面比較循環神經網絡卷積神經網絡的區別。 基本概念 循環神經網絡
    的頭像 發表于 07-04 14:24 ?1874次閱讀

    卷積神經網絡實現原理

    卷積神經網絡(Convolutional Neural Networks,簡稱CNN)是一種深度學習模型,廣泛應用于圖像識別、視頻分析、自然語言處理等領域。本文將詳細介紹卷積神經網絡
    的頭像 發表于 07-03 10:49 ?960次閱讀

    bp神經網絡卷積神經網絡區別是什么

    BP神經網絡(Backpropagation Neural Network)和卷積神經網絡(Convolutional Neural Network,簡稱CNN)是兩種不同類型的人工神經網絡
    的頭像 發表于 07-03 10:12 ?2339次閱讀

    卷積神經網絡分類方法有哪些

    ,包括基本原理、常見架構、優化策略、應用場景等。 1. 卷積神經網絡的基本原理 卷積神經網絡是一種前饋神經網絡,其核心思想是通過
    的頭像 發表于 07-03 09:40 ?829次閱讀

    卷積神經網絡的基本結構和工作原理

    和工作原理。 1. 引言 在深度學習領域,卷積神經網絡是一種非常重要的模型。它通過模擬人類視覺系統,能夠自動學習圖像中的特征,從而實現對圖像的識別和分類。與傳統的機器學習方法相比,CNN具有更強的特征提取能力,能夠處理更復雜的數
    的頭像 發表于 07-03 09:38 ?1440次閱讀

    cnn卷積神經網絡分類有哪些

    卷積神經網絡概述 卷積神經網絡(Convolutional Neural Network,簡稱CNN)是一種深度學習模型,由多層卷積層和池
    的頭像 發表于 07-03 09:28 ?1252次閱讀

    卷積神經網絡訓練的是什么

    、訓練過程以及應用場景。 1. 卷積神經網絡的基本概念 1.1 卷積神經網絡的定義 卷積神經網絡
    的頭像 發表于 07-03 09:15 ?811次閱讀

    卷積神經網絡的原理與實現

    核心思想是通過卷積操作提取輸入數據的特征。與傳統的神經網絡不同,卷積神經網絡具有參數共享和局部連接的特點,這使得其在處理圖像等高維數據時具有
    的頭像 發表于 07-02 16:47 ?1102次閱讀

    卷積神經網絡的基本結構及其功能

    。 引言 深度學習是機器學習的一個分支,它通過模擬人腦神經網絡的結構和功能,實現對數據的自動學習和特征提取。卷積神經網絡是深度學習中的一種重要模型,它通過
    的頭像 發表于 07-02 14:45 ?3210次閱讀

    卷積神經網絡的原理是什么

    卷積神經網絡(Convolutional Neural Network,簡稱CNN)是一種深度學習模型,廣泛應用于圖像識別、語音識別、自然語言處理等領域。本文將詳細介紹卷積神經網絡的原
    的頭像 發表于 07-02 14:44 ?1145次閱讀

    卷積神經網絡和bp神經網絡的區別

    卷積神經網絡(Convolutional Neural Networks,簡稱CNN)和BP神經網絡(Backpropagation Neural Networks,簡稱BPNN)是兩種
    的頭像 發表于 07-02 14:24 ?5780次閱讀