女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

從直觀的理解上講解什么是神經(jīng)網(wǎng)絡(luò)

倩倩 ? 來源:Mcix創(chuàng)客 ? 2020-04-17 14:29 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

什么是神經(jīng)網(wǎng)絡(luò)

深度學(xué)習(xí)是指訓(xùn)練神經(jīng)網(wǎng)絡(luò)的過程,有的時(shí)候深度學(xué)習(xí)表示大規(guī)模的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練,本節(jié)課程我們將從直觀的理解上講解什么是神經(jīng)網(wǎng)絡(luò)。

我們還是通過舉例子的方式來解釋一下,究竟什么才是神經(jīng)網(wǎng)絡(luò),從經(jīng)典的房價(jià)預(yù)測的例子開始講起。

假如我們有一個(gè)有關(guān)于房價(jià)的數(shù)據(jù)集,這個(gè)數(shù)據(jù)集中有6個(gè)樣本,每個(gè)樣本的特征是房屋的面積,而樣本的標(biāo)簽就是房屋的價(jià)格,此時(shí)我們需要一個(gè)能夠擬合這個(gè)數(shù)據(jù)集的函數(shù),并且能夠通過這個(gè)函數(shù)根據(jù)房屋的面積來預(yù)測房價(jià)。

我們?cè)?a target="_blank">機(jī)器學(xué)習(xí)的專欄中已經(jīng)學(xué)習(xí)過了線性回歸,所以我們很清楚如何通過線性回歸來擬合出一條直線,于是我們可能得到這樣的一條直線來擬合我們的數(shù)據(jù)集。

但是此時(shí)的模型會(huì)有一些問題,我們將我們的直線繼續(xù)擴(kuò)展,我們會(huì)發(fā)現(xiàn),當(dāng)我們的房屋的面積小于a的時(shí)候,我們的房屋的價(jià)格就會(huì)為負(fù)數(shù),這是不現(xiàn)實(shí)的,因?yàn)槲覀冎婪课莸膬r(jià)格永遠(yuǎn)都不能為負(fù)數(shù),因此為了解決這個(gè)問題,我們需要把我們的直線彎曲一點(diǎn),讓它最終在零結(jié)束,那么我們最終的函數(shù)就如下所示:

我們可以看出我們的模型在大于a的時(shí)候,也就是直線部分會(huì)擬合的很好。以上是我們通過線性回歸的方式來擬合我們的房屋的數(shù)據(jù)。

如果我們要通過神經(jīng)網(wǎng)絡(luò)的方式來實(shí)現(xiàn)上面的模型的話,這可能是最簡單的神經(jīng)網(wǎng)絡(luò)了。我們把房屋的面積作為神經(jīng)網(wǎng)絡(luò)的輸入(x),通過一個(gè)神經(jīng)元(小圓圈),最終輸出價(jià)格(y)。

我們通過上面的神經(jīng)網(wǎng)絡(luò)就能擬合出線性回歸所擬合出來的函數(shù),而這個(gè)函數(shù)我們未來在深度學(xué)習(xí)的過程中會(huì)經(jīng)常的見到,這個(gè)函數(shù)從趨近于0開始,然后變?yōu)橐粭l直線,這個(gè)函數(shù)被稱為RELU激活函數(shù),它的全稱就是Rectified Linear Unit(修正線性單元)。修正可以理解為max(0,x)。

所以我們當(dāng)前的神經(jīng)網(wǎng)絡(luò)可以做到和線性回歸一樣的功能,這個(gè)神經(jīng)網(wǎng)絡(luò)的工作原理就是輸入房屋面積,然后直接使用RELU激活函數(shù)來對(duì)房屋的面積進(jìn)行映射,然后我們就可以得出房屋的面積了,和線性回歸的效果是一樣的。

我們可以看出我們只通過一個(gè)神經(jīng)元就完成了房價(jià)預(yù)測的任務(wù),我們可以通過更多的神經(jīng)元來搭建一個(gè)更大的神經(jīng)網(wǎng)絡(luò)。我們?cè)賮砜匆粋€(gè)例子。

現(xiàn)在我們不僅使用單一的房屋的面積來預(yù)測房屋的價(jià)格,我們現(xiàn)在還有房屋的一些其它的特征,比如臥室的數(shù)量,郵政編碼(郵政編碼決定了你步行化的程度),地區(qū)富裕度。

{!-- PGC_COLUMN --}

這些特征能夠決定我們一個(gè)房子的價(jià)格,比如房子的大小和臥室的數(shù)量可以決定家庭的大小,郵政編碼可以決定步行化的程度,郵政編碼和地區(qū)富裕度還可以決定學(xué)校的質(zhì)量,而又可以根據(jù)家庭的大小,步行化的程度,以及學(xué)校的質(zhì)量可以決定最終的房屋的價(jià)格,所以我們可以根據(jù)這個(gè)邏輯建立如下所示的神經(jīng)網(wǎng)絡(luò)。

該圖中的每一個(gè)神經(jīng)元都可以是一個(gè)Relu,也就是修正線性單元,或者其它非線性的函數(shù)。

雖然我們已經(jīng)描述出來了這樣的一個(gè)神經(jīng)網(wǎng)絡(luò),但是看起來家庭的大小,步行化的程度,以及學(xué)校的質(zhì)量可能也需要我們得到,其實(shí)不用我們得到,我們只用像神經(jīng)網(wǎng)絡(luò)中輸入房屋的大小,臥室的數(shù)量,郵政編碼,富裕度這四個(gè)特征x,就能得到價(jià)格y,這正是神經(jīng)網(wǎng)絡(luò)神奇的地方,因?yàn)樯窠?jīng)網(wǎng)絡(luò)自己可以計(jì)算你訓(xùn)練集中樣本的數(shù)目以及所有的中間過程。這樣的話,我們就可以建立如下所示的神經(jīng)網(wǎng)絡(luò)了:

所以我們要做的就是將房屋大小,臥室數(shù)量,郵政編碼,富裕度這四個(gè)特征(x1、x2、x3、x4)輸入到神經(jīng)網(wǎng)絡(luò)中,輸入之后,神經(jīng)網(wǎng)絡(luò)就會(huì)預(yù)測出對(duì)應(yīng)的價(jià)格。

同時(shí)我們也要注意隱藏層的單元,我們可以看到隱藏層的單元都是從輸入的四個(gè)特征獲得自身的輸入,比如說隱藏層的第一個(gè)節(jié)點(diǎn)表示家庭人口,而家庭人口僅僅取決于特征x1和特征x2,神經(jīng)網(wǎng)絡(luò)的厲害之處在于,雖然這個(gè)隱藏層的結(jié)點(diǎn)也在和特征x3和特征x4相連,但是神經(jīng)網(wǎng)絡(luò)總是能夠通過權(quán)重參數(shù)的作用使得x3和x4對(duì)第一個(gè)隱藏層結(jié)點(diǎn)沒有作用,所以我們的特征x3和特征x4依然可以和這個(gè)隱藏層的結(jié)點(diǎn)相連(雖然x3和x4并不會(huì)對(duì)第一個(gè)隱藏層有什么意義)。

這樣的好處就是我們沒有必要去考慮很細(xì)節(jié)的東西,比如考慮第一個(gè)隱藏層和x1和x2有關(guān),從而連接x1和x2,而與x3和x4無關(guān),從而不連接x3和x4,如果我們考慮到如此細(xì)節(jié)的東西,那么我們的神經(jīng)網(wǎng)絡(luò)的搭建會(huì)異常的麻煩,當(dāng)我們喂給神經(jīng)網(wǎng)絡(luò)足夠多的數(shù)據(jù)的時(shí)候,神經(jīng)網(wǎng)絡(luò)總是能夠自動(dòng)學(xué)習(xí)到相應(yīng)的參數(shù),使得雖然與x3和x4相連,但是x3和x4卻不會(huì)對(duì)隱藏層第一個(gè)單元造成任何影響。

這里我們可以把神經(jīng)網(wǎng)絡(luò)的隱藏層看成是特征的升級(jí),比如一開始我們輸入的是房屋大小,臥室數(shù)量,郵政編碼,富裕度,經(jīng)過隱藏層之后,我們的特征變?yōu)榱思彝サ拇笮。叫谢某潭龋约皩W(xué)校的質(zhì)量(有可能)然后輸入到最后輸出層,相比來說家庭的大小,步行化的程度,以及學(xué)校的質(zhì)量更能決定房價(jià)y,所以我們可以簡單的看成神經(jīng)網(wǎng)絡(luò)的隱藏層就是對(duì)我們特征的升級(jí)。

至此我們就知道了什么是神經(jīng)網(wǎng)絡(luò),希望能夠通過本節(jié)課程能夠了解到神經(jīng)網(wǎng)絡(luò)。神經(jīng)網(wǎng)絡(luò)非常擅長從x到y(tǒng)的精準(zhǔn)映射函數(shù)。它非常的強(qiáng)大,只要你輸入x,我們就可以將映射成y,就像我們上面的預(yù)測房價(jià)的例子一樣。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的比較

    BP神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)在多個(gè)方面存在顯著差異,以下是對(duì)兩者的比較: 一、結(jié)構(gòu)特點(diǎn) BP神經(jīng)網(wǎng)絡(luò) : BP神經(jīng)網(wǎng)絡(luò)是一種多層的前饋神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:53 ?660次閱讀

    如何優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率

    優(yōu)化BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)率是提高模型訓(xùn)練效率和性能的關(guān)鍵步驟。以下是一些優(yōu)化BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)率的方法: 一、理解學(xué)習(xí)率的重要性 學(xué)習(xí)率決定了模型參數(shù)在每次迭代時(shí)更新的幅度。過大的學(xué)習(xí)率可能導(dǎo)致模型在
    的頭像 發(fā)表于 02-12 15:51 ?928次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn)分析

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)作為一種常用的機(jī)器學(xué)習(xí)模型,具有顯著的優(yōu)點(diǎn),同時(shí)也存在一些不容忽視的缺點(diǎn)。以下是對(duì)BP神經(jīng)網(wǎng)絡(luò)優(yōu)缺點(diǎn)的分析: 優(yōu)點(diǎn)
    的頭像 發(fā)表于 02-12 15:36 ?914次閱讀

    什么是BP神經(jīng)網(wǎng)絡(luò)的反向傳播算法

    神經(jīng)網(wǎng)絡(luò)(即反向傳播神經(jīng)網(wǎng)絡(luò))的核心,它建立在梯度下降法的基礎(chǔ),是一種適合于多層神經(jīng)元網(wǎng)絡(luò)的學(xué)習(xí)算法。該算法通過計(jì)算每層網(wǎng)絡(luò)的誤差,并將這
    的頭像 發(fā)表于 02-12 15:18 ?764次閱讀

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)之間存在著密切的關(guān)系,以下是對(duì)它們之間關(guān)系的介紹: 一、BP神經(jīng)網(wǎng)絡(luò)的基本概念 BP神經(jīng)網(wǎng)絡(luò),即反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural N
    的頭像 發(fā)表于 02-12 15:15 ?850次閱讀

    BP神經(jīng)網(wǎng)絡(luò)的基本原理

    BP神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)的基本原理涉及前向傳播和反向傳播兩個(gè)核心過程。以下是關(guān)于BP神經(jīng)網(wǎng)絡(luò)基本原理的介紹: 一、網(wǎng)絡(luò)結(jié)構(gòu) BP神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 02-12 15:13 ?844次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法

    在上一篇文章中,我們介紹了傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法。在本文中,我們會(huì)介紹人工神經(jīng)網(wǎng)絡(luò)的原理和多種神經(jīng)網(wǎng)絡(luò)架構(gòu)方法,供各位老師選擇。 01 人工神經(jīng)網(wǎng)絡(luò) ? 人工神經(jīng)網(wǎng)絡(luò)模型之所
    的頭像 發(fā)表于 01-09 10:24 ?1183次閱讀
    人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的原理和多種<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>架構(gòu)方法

    卷積神經(jīng)網(wǎng)絡(luò)與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的比較

    神經(jīng)網(wǎng)絡(luò),也稱為全連接神經(jīng)網(wǎng)絡(luò)(Fully Connected Neural Networks,F(xiàn)CNs),其特點(diǎn)是每一層的每個(gè)神經(jīng)元都與下一層的所有神經(jīng)元相連。這種結(jié)構(gòu)簡單
    的頭像 發(fā)表于 11-15 14:53 ?1865次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的基本原理與算法

    ),是深度學(xué)習(xí)的代表算法之一。 一、基本原理 卷積運(yùn)算 卷積運(yùn)算是卷積神經(jīng)網(wǎng)絡(luò)的核心,用于提取圖像中的局部特征。 定義卷積核:卷積核是一個(gè)小的矩陣,用于在輸入圖像滑動(dòng),提取局部特征。 滑動(dòng)窗口:將卷積核在輸入圖像滑動(dòng),每次滑
    的頭像 發(fā)表于 11-15 14:47 ?1773次閱讀

    RNN模型與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)領(lǐng)域中的一種強(qiáng)大工具,它們能夠模擬人腦處理信息的方式。隨著技術(shù)的發(fā)展,神經(jīng)網(wǎng)絡(luò)的類型也在不斷增加,其中循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和傳統(tǒng)神經(jīng)網(wǎng)絡(luò)(如前饋
    的頭像 發(fā)表于 11-15 09:42 ?1125次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)與工作機(jī)制

    LSTM(Long Short-Term Memory,長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),設(shè)計(jì)用于解決長期依賴問題,特別是在處理時(shí)間序列數(shù)據(jù)時(shí)表現(xiàn)出色。以下是LSTM神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 11-13 10:05 ?1628次閱讀

    LSTM神經(jīng)網(wǎng)絡(luò)的基本原理 如何實(shí)現(xiàn)LSTM神經(jīng)網(wǎng)絡(luò)

    LSTM(長短期記憶)神經(jīng)網(wǎng)絡(luò)是一種特殊的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),它能夠?qū)W習(xí)長期依賴信息。在處理序列數(shù)據(jù)時(shí),如時(shí)間序列分析、自然語言處理等,LSTM因其能夠有效地捕捉時(shí)間序列中的長期依賴關(guān)系而受到
    的頭像 發(fā)表于 11-13 09:53 ?1570次閱讀

    Moku人工神經(jīng)網(wǎng)絡(luò)101

    Moku3.3版更新在Moku:Pro平臺(tái)新增了全新的儀器功能【神經(jīng)網(wǎng)絡(luò)】,使用戶能夠在Moku設(shè)備上部署實(shí)時(shí)機(jī)器學(xué)習(xí)算法,進(jìn)行快速、靈活的信號(hào)分析、去噪、傳感器調(diào)節(jié)校準(zhǔn)、閉環(huán)反饋等應(yīng)用。如果您
    的頭像 發(fā)表于 11-01 08:06 ?661次閱讀
    Moku人工<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>101

    關(guān)于卷積神經(jīng)網(wǎng)絡(luò),這些概念你厘清了么~

    隨著人工智能(AI)技術(shù)的快速發(fā)展,AI可以越來越多地支持以前無法實(shí)現(xiàn)或者難以實(shí)現(xiàn)的應(yīng)用。本文基于此解釋了 卷積神經(jīng)網(wǎng)絡(luò) (CNN)及其對(duì)人工智能和機(jī)器學(xué)習(xí)的意義。CNN是一種能夠復(fù)雜數(shù)據(jù)中提
    發(fā)表于 10-24 13:56

    matlab 神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析

    matlab神經(jīng)網(wǎng)絡(luò) 數(shù)學(xué)建模數(shù)值分析 精通的可以討論下
    發(fā)表于 09-18 15:14