女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

神經(jīng)網(wǎng)絡(luò)技術(shù)在網(wǎng)絡(luò)視頻處理的應(yīng)用探討

倩倩 ? 來(lái)源:ZOL中關(guān)村在線 ? 2020-04-17 15:10 ? 次閱讀

一、背景:

是一家集產(chǎn)品數(shù)據(jù)、專業(yè)資訊、科技視頻、互動(dòng)行銷為一體的復(fù)合型媒體網(wǎng)站。公司內(nèi)部每天都要對(duì)網(wǎng)站大量的文字,圖片,視頻進(jìn)行處理。給視頻貼標(biāo)簽,給文章配圖,分類等等。公司主要是依賴人工來(lái)處理這些信息的,但是人工處理存在著工作量大,成本高,效率低的問(wèn)題。于是公司組建了大數(shù)據(jù)部門(mén),希望通過(guò)科技的手段來(lái)緩解人工處理信息的壓力。

機(jī)器學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)(machinelearning):

那么什么樣的科技才能幫到我們呢?首先把目光投向了機(jī)器學(xué)習(xí),也就是所謂的machinelearning。機(jī)器學(xué)習(xí)簡(jiǎn)單的說(shuō)就是要讓電腦自己學(xué)習(xí),就像老師教學(xué)生數(shù)學(xué)題一樣,先給計(jì)算機(jī)展示一些例子,然后讓計(jì)算機(jī)自己去做題。希望通過(guò)這個(gè)理念來(lái)訓(xùn)練計(jì)算機(jī)思考,代替人力。能夠?qū)崿F(xiàn)機(jī)器學(xué)習(xí)的算法多種多樣,每種算法都有自己的特點(diǎn)和優(yōu)劣勢(shì)。而我想要重點(diǎn)介紹的一個(gè)比較先進(jìn)的算法,人工神經(jīng)網(wǎng)絡(luò)(ArtificialNeuralNetworks,簡(jiǎn)寫(xiě)為ANNs)。它是一種應(yīng)用類似于大腦神經(jīng)突觸聯(lián)接的結(jié)構(gòu)進(jìn)行信息處理的數(shù)學(xué)模型。神經(jīng)網(wǎng)絡(luò)的是一個(gè)較為新的算法概念。其出現(xiàn)使得機(jī)器學(xué)習(xí)有了突飛猛進(jìn)的進(jìn)展。人工神經(jīng)網(wǎng)絡(luò)在模式識(shí)別、智能機(jī)器人、自動(dòng)控制、預(yù)測(cè)估計(jì)、生物、醫(yī)學(xué)、經(jīng)濟(jì)等領(lǐng)域已成功地解決了許多現(xiàn)代計(jì)算機(jī)難以解決的實(shí)際問(wèn)題,表現(xiàn)出了良好的智能特性。而卷積神經(jīng)網(wǎng)絡(luò)(cnn)更是用途最廣的神經(jīng)網(wǎng)絡(luò)之一。它具有一定的抽象能力,可以提取數(shù)據(jù)的特征,魯棒性較強(qiáng)。也就是說(shuō)如果同一組數(shù)據(jù)發(fā)生了變化,卷積神經(jīng)網(wǎng)絡(luò)也一樣可以適應(yīng)這些變化。例如時(shí)下流行的人臉識(shí)別,新款的iPhone8和iPhoneX應(yīng)用的正是卷積神經(jīng)網(wǎng)絡(luò)來(lái)做到的人臉解鎖。百度搜索引擎也利用了卷積神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了精準(zhǔn)的黃色,垃圾,恐怖等非法圖片,非法網(wǎng)址的識(shí)別。

二、問(wèn)題的提出:

由于目前谷歌等大型網(wǎng)絡(luò)公司對(duì)神經(jīng)網(wǎng)絡(luò)的深入研究。現(xiàn)在卷積神經(jīng)網(wǎng)絡(luò)已經(jīng)能對(duì)文字和圖片的進(jìn)行識(shí)別高效而準(zhǔn)確的識(shí)別。但是對(duì)于視頻內(nèi)容的識(shí)別還處于開(kāi)始階段。于是我想在卷積神經(jīng)網(wǎng)絡(luò)在視頻信息處理的可行性方面做出一點(diǎn)探究。而這次我把目光投向了游戲視頻。

游戲直播一直都是網(wǎng)絡(luò)直播行業(yè)的主力軍。而為了保留下精彩瞬間吸引更多觀眾,各大直播平臺(tái)也紛紛推出了自己的錄播平臺(tái),上傳自己游戲主播的精彩視頻。但是,將整段整段的錄播內(nèi)容上傳十分耗費(fèi)時(shí)間,保留這些視頻也十分耗費(fèi)內(nèi)存。如果能對(duì)視頻進(jìn)行切割,只保留有游戲的部分,除掉其它與游戲無(wú)關(guān)部分,將會(huì)大大緩解這些問(wèn)題,并且還能方便看錄像的觀眾跳過(guò)等待時(shí)間。但是,對(duì)視頻進(jìn)行分段十分耗費(fèi)人力。中國(guó)目前知名的直播平臺(tái)douyuTV,僅游戲類主播每天就能產(chǎn)生上千個(gè)小時(shí)的錄播視頻。人力將無(wú)法有效地處理如此龐大的數(shù)據(jù)量,因此我想嘗試卷積神經(jīng)網(wǎng)絡(luò)是否能對(duì)這些游戲視頻做出高效的處理。本文將通過(guò)機(jī)器學(xué)習(xí)來(lái)建立“絕地大逃殺”這款游戲視頻的卷積神經(jīng)網(wǎng)絡(luò)模型,使其對(duì)這款游戲開(kāi)始,游戲中,和結(jié)束3各階段進(jìn)行識(shí)別。

三、問(wèn)題的研究分析:

實(shí)驗(yàn)對(duì)象分析:

絕地大逃殺是一款第一人稱視角射擊類游戲。游戲本身采用了當(dāng)下比較流行MOBA類游戲模式。既游戲分為一場(chǎng)又一場(chǎng)的比賽,比賽之間相互獨(dú)立,且每局比賽有鮮明的開(kāi)始和結(jié)束畫(huà)面,便于識(shí)別。在這方面與之相類似的還有很多人氣很高的游戲:LeagueofLegend,dota2,Overwatch,等等。如果我能通過(guò)機(jī)器學(xué)習(xí)對(duì)這款游戲的視頻進(jìn)行分段,那么說(shuō)明對(duì)其他游戲這類游戲也同樣可行。

算法分析:

現(xiàn)在存在著很多種卷積神經(jīng)網(wǎng)絡(luò),而我下面想要重點(diǎn)介紹2D卷積神經(jīng)網(wǎng)絡(luò),和3d卷積神經(jīng)網(wǎng)絡(luò)。這兩類卷積神經(jīng)網(wǎng)絡(luò)擅長(zhǎng)于捕捉數(shù)據(jù)的特點(diǎn)并對(duì)其進(jìn)行分類,正是我需要的算法。

2D卷積神經(jīng)網(wǎng)絡(luò):

2D卷積神經(jīng)網(wǎng)絡(luò)比傳統(tǒng)神經(jīng)網(wǎng)絡(luò)多出的部分就是卷積層和采樣層。比如我們想識(shí)別所有帶有狗的圖片,而現(xiàn)在輸入層是就是一張帶有狗的圖片。想要讓神經(jīng)網(wǎng)絡(luò)理解什么是狗,我們先要大致預(yù)測(cè)這張照片展現(xiàn)了多少狗的特征,這就是卷積的含義了。如上圖所示,如果我預(yù)測(cè)狗有40個(gè)特征,那么這一張照片將被分成40份(c1層),分別做檢測(cè),每一份檢測(cè)一個(gè)特征。但是由于機(jī)器的限制,第一次卷積每一個(gè)特征的大小都是相同的,也就是說(shuō)第一次卷積可能只檢測(cè)到5x5像素大小的狗的特征。而還有一些狗的更大的特征無(wú)法被檢測(cè)。于是我們要降采樣。保留c1層檢測(cè)到的特征的位置,把沒(méi)有特征的像素去掉。我們得到了一張更模糊的圖片(s1層),然后對(duì)這張更模糊的圖片再次卷積,然后再降采樣,如此往復(fù),直到圖片的像素少到難以判斷這是什么的時(shí)候。最后一步,把所有最后一層的小圖片們中的像素展開(kāi),形成一列,這一過(guò)程就是上圖的全連接。把它們輸入傳統(tǒng)人工神經(jīng)網(wǎng)絡(luò)分析,得到輸出,這到底是不是狗。

3D卷積神經(jīng)網(wǎng)絡(luò):

3D卷積神經(jīng)網(wǎng)絡(luò)和2D卷積神經(jīng)網(wǎng)絡(luò)的思路相似,都是通過(guò)不斷卷積,再降采樣來(lái)識(shí)別輸入數(shù)據(jù)的特征。但是與2D-cnn不同的是,3D-cnn側(cè)重于識(shí)別連續(xù)樣本中特征連續(xù)變化的特征。也就是說(shuō)3D-cnn比較擅長(zhǎng)處理連續(xù)變化的數(shù)據(jù)。所以3D-cnn多用于視頻識(shí)別。如上圖所示的是3D-cnn的卷積過(guò)程。首先把視頻按照幀數(shù)輸入到一個(gè)3維矩陣中。由于輸入層是一個(gè)3維矩陣,那么卷積所要捕捉的特征也會(huì)是3維的。假設(shè)我想捕捉在連續(xù)五幀里5x5像素大小的特征,那么卷積核就的大小就是一個(gè)5x5x5的三維矩陣。最后的輸出是上圖的“輸出特征圖”,對(duì)應(yīng)2D-cnn的C1層中的某一層。

四、問(wèn)題的解決及驗(yàn)證:

目前看來(lái)比較主流的處理視頻的算法是3d卷積神經(jīng)網(wǎng)絡(luò),這次我采用的是傳統(tǒng)的2d卷積神經(jīng)網(wǎng)絡(luò),以下是我的分析。

雖然說(shuō)3d卷積神經(jīng)網(wǎng)絡(luò)在能更好的識(shí)別視頻中連續(xù)幀所包含的信息。然而,游戲視頻有自己的一些特性。在游戲開(kāi)始,進(jìn)行,和結(jié)束階段,視頻畫(huà)面往往會(huì)有很大的差異,例如“絕地大逃殺”這款游戲,游戲開(kāi)始時(shí)玩家屏幕中會(huì)有一架飛機(jī):

而游戲結(jié)束時(shí)顯示的是計(jì)分板:

大部分游戲都會(huì)有這種鮮明的畫(huà)面對(duì)比來(lái)告知玩家游戲開(kāi)始,或結(jié)束了。所以用2d神經(jīng)網(wǎng)絡(luò)倆對(duì)這些幀做識(shí)別較為合適。3d卷積神逐幀會(huì)對(duì)視頻逐幀分析,捕捉到視頻的動(dòng)態(tài)特點(diǎn),但這些特點(diǎn)對(duì)視頻截取沒(méi)有額外的幫助。權(quán)衡之下我采用了傳統(tǒng)2d卷積神經(jīng)網(wǎng)絡(luò)。通過(guò)對(duì)游戲中這些關(guān)鍵幀的識(shí)別來(lái)達(dá)到對(duì)游戲內(nèi)容分段的效果。

然而2d神經(jīng)網(wǎng)絡(luò)也存在自己的問(wèn)題。我第一次訓(xùn)練的時(shí)候從兩個(gè)游戲視頻中截取了532張圖片做訓(xùn)練,結(jié)果損失函數(shù)很快地就收斂了,準(zhǔn)確率也一直高地驚人,僅僅10次訓(xùn)練就達(dá)到了100%。但是當(dāng)我用該模型測(cè)試一段全新的視頻時(shí),準(zhǔn)確率確只有65%左右。經(jīng)過(guò)反復(fù)思考,我發(fā)現(xiàn)問(wèn)題產(chǎn)生在我用于做訓(xùn)練的視頻太少,而我截取的樣本容量卻太多。雖然通過(guò)密集地截取視頻幀數(shù)可以獲得大量的訓(xùn)練樣本,但是這些樣本存在很大問(wèn)題。鄰近幀數(shù)的圖片往往差異比較小,將這些差異極小的圖片大量地輸入神經(jīng)網(wǎng)絡(luò)會(huì)導(dǎo)致訓(xùn)練的準(zhǔn)確率虛高,且模型容易訓(xùn)練過(guò)度。因此,這次我在訓(xùn)練時(shí)特別注意了這個(gè)細(xì)節(jié),找到了12段不一樣的視頻,只截取了1000張左右的圖片。

搭建神經(jīng)網(wǎng)絡(luò):

所有激活函數(shù)均采用了ReLU函數(shù)來(lái)作為激活函數(shù),以便加速收斂。卷積神經(jīng)模型,分3層卷積網(wǎng)絡(luò)。每層提取8x8大小的特征40個(gè),每次卷積完后用2x2大小的filter進(jìn)行maxpool。最后展開(kāi)層有5400個(gè)神經(jīng)元,算上輸入層一共有7層。

Input:(3,68,120)float32

layer0:cnn1/Relu:0(68,120,40)float32

layer1:pool1:0(34,60,40)float32

layer2:cnn2/Relu:0(34,60,40)float32

layer3:pool2:0(17,30,40)float32

layer4:cnn3/Relu:0(17,30,40)float32

layer5:pool3:0(9,15,40)float32

layer6:flatten:0(5400,)float32

接下來(lái)對(duì)有5400個(gè)神經(jīng)元的展開(kāi)層后面加一個(gè)50%dropout率的Dropout層。接下來(lái)第8,10,12層為全連接層,9,11層又是Dropout層,Dropout率均為50%。12層為輸出層,輸出3個(gè)值為某一幀是游戲開(kāi)始,游戲中,游戲結(jié)束可能性的參數(shù)。

layer7:drop1/mul:0(5400,)float32

layer8:relu1/Relu:0(5000,)float32

layer9:drop2/mul:0(5000,)float32

layer10:relu2/Relu:0(1024,)float32

layer11:drop3/mul:0(1024,)float32

layer12:output/Identity:0(3,)float32

增加dropout層可以大大減少模型對(duì)樣本容量的需求,而且也可以防止過(guò)度訓(xùn)練。

最后,訓(xùn)練將采用minibatch來(lái)提高訓(xùn)練的速度。每十組數(shù)據(jù)分為一個(gè)batch。所以真正訓(xùn)練時(shí)的神經(jīng)網(wǎng)絡(luò)比上述的神經(jīng)網(wǎng)絡(luò)每一層都多一維度,且該維度一直為10,例如輸入層大小為(10,3,68,120)。

訓(xùn)練:

本次實(shí)驗(yàn)在本人自己的工作電腦本上進(jìn)行。Intel(R)Core(TM)i7-6700HQCPU@2.6Hz,英偉達(dá)GTX970顯卡。12個(gè)游戲視頻作為訓(xùn)練樣本,這些視頻全部來(lái)自于www.bilibili.com,從視頻中以游戲開(kāi)始,游戲進(jìn)行,游戲結(jié)束這3個(gè)階段較為平均地抽取了1013張截圖作為訓(xùn)練樣本。這些圖片又被以7:3的比例分為訓(xùn)練組和驗(yàn)證組。取幀軟件為Windows自帶的ffmpeg,截取下的圖片大小為1280*720,為了減少內(nèi)存的壓力,用numpy把圖片轉(zhuǎn)換成120*68的大小。搭建神經(jīng)網(wǎng)絡(luò)時(shí)使用python作為編程語(yǔ)言,主要應(yīng)用tensorflow和tensorlayer來(lái)進(jìn)行神經(jīng)網(wǎng)絡(luò)的搭建。

由于鄰近幀數(shù)的畫(huà)面可能會(huì)彼此之間十分相似,當(dāng)這相似的兩張圖片分別被分進(jìn)了訓(xùn)練組和驗(yàn)證組便會(huì)導(dǎo)致驗(yàn)證組的準(zhǔn)確率虛高。所以為了減少這種情況干擾模型的準(zhǔn)確率,驗(yàn)證組中的畫(huà)面全部來(lái)自于與訓(xùn)練組不同的游戲視頻。訓(xùn)練時(shí)將對(duì)這1013張圖片反復(fù)訓(xùn)練200次,每過(guò)10次,輸出一次訓(xùn)練組和驗(yàn)證組的損失參數(shù)和準(zhǔn)確率。

結(jié)果:

訓(xùn)練結(jié)果由下圖看可見(jiàn)。橫軸坐標(biāo)中從2到21,每個(gè)數(shù)據(jù)代表著10次運(yùn)算后的平均值。只有橫坐標(biāo)為1時(shí),代表了訓(xùn)練了一次之后所得的結(jié)果。

損失函數(shù):

準(zhǔn)確率:

除去第一組數(shù)據(jù)后的損失函數(shù):

除去第一組數(shù)據(jù)后的準(zhǔn)確率函數(shù):

在200次循環(huán)計(jì)算過(guò)程中平均每次循環(huán)花費(fèi)3.292319秒,整個(gè)程序大約耗時(shí)12分鐘。

五、總結(jié):

對(duì)比驗(yàn)證組數(shù)據(jù)和訓(xùn)練組數(shù)據(jù),可以發(fā)現(xiàn)兩者之間存在的差異較小,說(shuō)明搭建的模型比較真實(shí)的捕捉到了游戲中3個(gè)階段的特點(diǎn),說(shuō)明該2D-cnn模型克服了鄰近幀相似的問(wèn)題。

從200次循環(huán)得到的數(shù)據(jù)來(lái)看,損失函數(shù)和準(zhǔn)確率函數(shù)均有收斂的趨勢(shì)。但是在訓(xùn)練樣本只有12個(gè)視頻的情況下再進(jìn)行更多的重復(fù)訓(xùn)練也不會(huì)更加提高模型的準(zhǔn)確率,反而有可能過(guò)度訓(xùn)練。由于一個(gè)人力量有限,無(wú)法提供更多的訓(xùn)練樣本。如若能有更多的訓(xùn)練樣本和更好的硬件設(shè)備,相信可以訓(xùn)練出更加準(zhǔn)確的模型來(lái)模仿這款游戲的進(jìn)程從而對(duì)其進(jìn)行分段。由此可見(jiàn),通過(guò)2d卷積神經(jīng)網(wǎng)絡(luò)來(lái)對(duì)游戲視頻進(jìn)行分段是完全可行的。

如果以后這個(gè)算法被改良后用于視頻分段和視頻截取,將大大節(jié)省人工處理視頻的時(shí)間。目前我的程序處理1000左右?guī)膱D片需要話費(fèi)約3.2秒,1000/3.2也就是312.5幀每秒。而一般人眼可有效識(shí)別的幀數(shù)的頻率大概是24幀每秒。由此可見(jiàn)神經(jīng)網(wǎng)絡(luò)的運(yùn)算速度遠(yuǎn)遠(yuǎn)高于人工的速度,約為人工的13倍。如果這種視頻分段方法被加以利用,可以大大減少人工時(shí)間。

此外除了對(duì)視頻進(jìn)行簡(jiǎn)單的分類,截取。對(duì)于特定游戲視頻加入對(duì)某些特點(diǎn)畫(huà)面的識(shí)別,例如許多游戲都有計(jì)分板,記錄玩家得分,對(duì)它們進(jìn)行識(shí)別可以大致判斷玩家在這段視頻中的表現(xiàn)。又或者一些低概率發(fā)生的事件,發(fā)生時(shí)游戲畫(huà)面也會(huì)發(fā)生特定的變化。神經(jīng)網(wǎng)絡(luò)完全可以識(shí)別這些細(xì)節(jié),然后再對(duì)整個(gè)視頻的精彩程度加以判斷,把精彩的游戲視頻推送給感興趣的人。我們甚至還可以加入聲音的識(shí)別,對(duì)截取的視頻配上字幕,方便聽(tīng)力不好的觀眾觀看。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    處理技術(shù)也可以通過(guò)深度學(xué)習(xí)來(lái)獲得更優(yōu)異的效果,比如去噪、超分辨率和跟蹤算法等。為了跟上時(shí)代的步伐,必須對(duì)深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)技術(shù)有所學(xué)習(xí)和研究。本文將介紹深度學(xué)習(xí)技術(shù)
    的頭像 發(fā)表于 01-11 10:51 ?2679次閱讀
    詳解深度學(xué)習(xí)、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問(wèn)題,我們似乎可以給出相對(duì)簡(jiǎn)明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    今天學(xué)習(xí)了兩個(gè)神經(jīng)網(wǎng)絡(luò),分別是自適應(yīng)諧振(ART)神經(jīng)網(wǎng)絡(luò)與自組織映射(SOM)神經(jīng)網(wǎng)絡(luò)。整體感覺(jué)不是很難,只不過(guò)一些最基礎(chǔ)的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡(luò)是競(jìng)爭(zhēng)學(xué)習(xí)的一個(gè)代表,
    發(fā)表于 07-21 04:30

    如何設(shè)計(jì)BP神經(jīng)網(wǎng)絡(luò)圖像壓縮算法?

    神經(jīng)網(wǎng)絡(luò)的并行特點(diǎn),而且它還可以根據(jù)設(shè)計(jì)要求配置硬件結(jié)構(gòu),例如根據(jù)實(shí)際需要,可靈活設(shè)計(jì)數(shù)據(jù)的位寬等。隨著數(shù)字集成電路技術(shù)的飛速發(fā)展,F(xiàn)PGA芯片的處理能力得到了極大的提升,已經(jīng)完全可以承擔(dān)神經(jīng)
    發(fā)表于 08-08 06:11

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測(cè)的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測(cè)
    發(fā)表于 07-12 08:02

    圖像預(yù)處理和改進(jìn)神經(jīng)網(wǎng)絡(luò)推理的簡(jiǎn)要介紹

    為提升識(shí)別準(zhǔn)確率,采用改進(jìn)神經(jīng)網(wǎng)絡(luò),通過(guò)Mnist數(shù)據(jù)集進(jìn)行訓(xùn)練。整體處理過(guò)程分為兩步:圖像預(yù)處理和改進(jìn)神經(jīng)網(wǎng)絡(luò)推理。圖像預(yù)處理主要根據(jù)圖像
    發(fā)表于 12-23 08:07

    卷積神經(jīng)網(wǎng)絡(luò)為什么適合圖像處理

    卷積神經(jīng)網(wǎng)絡(luò)為什么適合圖像處理
    發(fā)表于 09-08 10:23

    神經(jīng)網(wǎng)絡(luò)技術(shù)在計(jì)算機(jī)網(wǎng)絡(luò)通信中的應(yīng)用

    神經(jīng)網(wǎng)絡(luò)技術(shù)在計(jì)算機(jī)網(wǎng)絡(luò)通信中的應(yīng)用,下來(lái)看看
    發(fā)表于 07-20 16:51 ?13次下載

    神經(jīng)網(wǎng)絡(luò)技術(shù)(原理篇)

    本文介紹了神經(jīng)網(wǎng)絡(luò)的信息處理原理、基本結(jié)構(gòu)以及神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)模型,簡(jiǎn)單闡述了神經(jīng)網(wǎng)絡(luò)如何進(jìn)行學(xué)習(xí)和信息處理,并且通過(guò)例子說(shuō)明
    發(fā)表于 04-20 16:44 ?5次下載

    卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用 卷積神經(jīng)網(wǎng)絡(luò)通常用來(lái)處理什么

    神經(jīng)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)廣泛用于圖像識(shí)別、自然語(yǔ)言處理視頻處理等方面。本文將對(duì)卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用
    的頭像 發(fā)表于 08-21 16:41 ?5435次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn) cnn卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)

    卷積神經(jīng)網(wǎng)絡(luò)概述 卷積神經(jīng)網(wǎng)絡(luò)的特點(diǎn) cnn卷積神經(jīng)網(wǎng)絡(luò)的優(yōu)點(diǎn)? 卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural network,CNN)是一種基于深度學(xué)習(xí)
    的頭像 發(fā)表于 08-21 16:41 ?3649次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點(diǎn) 卷積神經(jīng)網(wǎng)絡(luò)和深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

    深度神經(jīng)網(wǎng)絡(luò)是一種基于神經(jīng)網(wǎng)絡(luò)的機(jī)器學(xué)習(xí)算法,其主要特點(diǎn)是由多層神經(jīng)元構(gòu)成,可以根據(jù)數(shù)據(jù)自動(dòng)調(diào)整神經(jīng)元之間的權(quán)重,從而實(shí)現(xiàn)對(duì)大規(guī)模數(shù)據(jù)進(jìn)行預(yù)測(cè)和分類。卷積
    發(fā)表于 08-21 17:07 ?4587次閱讀

    神經(jīng)網(wǎng)絡(luò)架構(gòu)有哪些

    神經(jīng)網(wǎng)絡(luò)架構(gòu)是機(jī)器學(xué)習(xí)領(lǐng)域中的核心組成部分,它們模仿了生物神經(jīng)網(wǎng)絡(luò)的運(yùn)作方式,通過(guò)復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)實(shí)現(xiàn)信息的處理、存儲(chǔ)和傳遞。隨著深度學(xué)習(xí)技術(shù)
    的頭像 發(fā)表于 07-01 14:16 ?1395次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時(shí)間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理
    的頭像 發(fā)表于 07-05 09:52 ?938次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)視頻處理中的應(yīng)用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)作為深度學(xué)習(xí)的代表算法之一,在計(jì)算機(jī)視覺(jué)領(lǐng)域取得了顯著成就,特別是在視頻處理方面。本文將深入探討卷積
    的頭像 發(fā)表于 07-09 15:53 ?1136次閱讀