女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

介紹了計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)比較成功的10個(gè)深度學(xué)習(xí)架構(gòu)

JIWa_melux_net ? 2018-01-11 10:49 ? 次閱讀

近年來(lái),深度學(xué)習(xí)的發(fā)展勢(shì)頭迅猛,要跟上深度學(xué)習(xí)的進(jìn)步速度變得越來(lái)越困難了。幾乎每一天都有關(guān)于深度學(xué)習(xí)的創(chuàng)新,而大部分的深度學(xué)習(xí)創(chuàng)新都隱藏在那些發(fā)表于ArXiv和Spinger等研究論文中。

簡(jiǎn)潔起見,本文中只介紹了計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)比較成功的深度學(xué)習(xí)架構(gòu)。

目錄

什么是深度學(xué)習(xí)“高級(jí)架構(gòu)”?

不同類型的計(jì)算機(jī)視覺(jué)任務(wù)

各種深度學(xué)習(xí)架構(gòu)

何為深度學(xué)習(xí)“高級(jí)架構(gòu)”?

與一個(gè)簡(jiǎn)單的機(jī)器學(xué)習(xí)算法相比,深度學(xué)習(xí)算法包含了更加多樣的模型。其中的原因是在建立一個(gè)完整的模型時(shí),神經(jīng)網(wǎng)絡(luò)具有很大的靈活性。

有時(shí),我們還可以把神經(jīng)網(wǎng)絡(luò)比作樂(lè)高積木,可以用它搭建任何簡(jiǎn)單或者復(fù)雜的小建筑。

我們其實(shí)可以將“高級(jí)架構(gòu)”簡(jiǎn)單地定義為一個(gè)有著成功模型記錄的深度學(xué)習(xí)架構(gòu),這樣的“高級(jí)架構(gòu)”主要出現(xiàn)在類似ImageNet的挑戰(zhàn)中,在這些挑戰(zhàn)中,你的任務(wù)是解決問(wèn)題,比如用給定的數(shù)據(jù)完成圖像識(shí)別。簡(jiǎn)單來(lái)說(shuō),ImageNet就是一項(xiàng)關(guān)于數(shù)據(jù)集的挑戰(zhàn),而其中的數(shù)據(jù)集是從ILSVR(ImageNet大規(guī)模視覺(jué)識(shí)別)中獲得的。

就像下文即將提到的架構(gòu),其中的每個(gè)架構(gòu)之間都有細(xì)微的差別,而正是這些差別使它們區(qū)別于普通的模型,讓它們?cè)诮鉀Q問(wèn)題的時(shí)候發(fā)揮出普通模型不具備的優(yōu)勢(shì)。這些架構(gòu)同樣屬于“深度模型”的范疇,因此它們的性能也很可能優(yōu)于其相對(duì)應(yīng)的“淺層模型”。

不同類型的“計(jì)算機(jī)視覺(jué)任務(wù)”

本文主要關(guān)注于“計(jì)算機(jī)視覺(jué)”,所以很自然地會(huì)涉及到“計(jì)算機(jī)視覺(jué)”的任務(wù)。顧名思義,“計(jì)算機(jī)視覺(jué)任務(wù)”就是建立一個(gè)能夠復(fù)制完成人類視覺(jué)任務(wù)的計(jì)算機(jī)模型。這實(shí)質(zhì)上意味著,我們視力所見和感知的內(nèi)容是一個(gè)能夠在人造系統(tǒng)中被理解和完成的程序。

計(jì)算機(jī)視覺(jué)任務(wù)的主要類型有:

物體識(shí)別/分類:在物體識(shí)別中,你會(huì)得到一張?jiān)紙D像,而你的任務(wù)就是判斷出這張圖像屬于哪一類別。

分類及定位:如果圖像中只有一個(gè)對(duì)象,那么你的任務(wù)就是找到該對(duì)象的位置。這個(gè)問(wèn)題應(yīng)該更加具體地表述為“定位問(wèn)題”。

物體檢測(cè):在物體檢測(cè)中,你的任務(wù)是識(shí)別出物體處于圖像中的什么位置。這些對(duì)象可能屬于同一類別,也可能屬于不同類別。

圖像分割:圖像分割是一項(xiàng)稍微復(fù)雜的任務(wù),其目的是將圖像的各個(gè)像素映射到其對(duì)應(yīng)的各個(gè)類別。

目前,我們已經(jīng)了解了深度學(xué)習(xí)“高級(jí)架構(gòu)”,并探究了各種類型的計(jì)算機(jī)視覺(jué)任務(wù)。那么接下來(lái),我們將列舉出最重要的深度學(xué)習(xí)架構(gòu),并且對(duì)這些架構(gòu)進(jìn)行簡(jiǎn)單的介紹:

1

AlexNet

AlexNet是第一個(gè)深度學(xué)習(xí)架構(gòu),它是由深度學(xué)習(xí)先鋒之一——Geoffrey Hinton和他的同事們共同研究并引入的。AlexNet是一個(gè)看似簡(jiǎn)單但功能非常強(qiáng)大的網(wǎng)絡(luò)架構(gòu),它為現(xiàn)在深度學(xué)習(xí)的突破性研究鋪平了道路。下圖是AlexNet架構(gòu):

介紹了計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)比較成功的10個(gè)深度學(xué)習(xí)架構(gòu)

從分解圖中我們可以看出,AlexNet其實(shí)就是一個(gè)簡(jiǎn)單的架構(gòu),其中的卷積層和聚積層相互疊加,最頂部的是全連接層。

早在二十世紀(jì)八十年代,AlexNet模型就已經(jīng)被概念化描述了。AlexNet區(qū)別于其他模型的關(guān)鍵在于它的任務(wù)規(guī)模,以及它用于訓(xùn)練的GPU規(guī)模。在八十年代,用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的是CPU。而AlexNet率先使用GPU,將訓(xùn)練的速度提高了十倍左右。

雖然AlexNet現(xiàn)在有些過(guò)時(shí)了,但它仍然是運(yùn)用神經(jīng)網(wǎng)絡(luò)完成各種任務(wù)的起點(diǎn)。不管是完成計(jì)算機(jī)視覺(jué)任務(wù),還是語(yǔ)音識(shí)別任務(wù),都仍然需要AlexNet。

2

VGG Net

“VGG Net”是由牛津大學(xué)“視覺(jué)圖像研究組”的研究人員引入的。VGG網(wǎng)絡(luò)的最大特點(diǎn)是它的金字塔狀,靠近圖像的底部比較寬闊,而頂部的層相對(duì)窄且深。

如圖所示,VGG Net包含了連續(xù)的卷積層,卷積層后緊接著聚積層。聚積層負(fù)責(zé)讓各個(gè)層變得更窄。在這篇由組內(nèi)研究人員共同完成的論文中,他們提出了各種類型的網(wǎng)絡(luò),這些網(wǎng)絡(luò)架構(gòu)的主要差異是深度不同。

VGG網(wǎng)絡(luò)的優(yōu)勢(shì)在于:

1.這是對(duì)一個(gè)特定任務(wù)進(jìn)行基準(zhǔn)測(cè)試非常有效的網(wǎng)絡(luò)架構(gòu)。

102.同時(shí),網(wǎng)上有大量免費(fèi)的VGG預(yù)訓(xùn)練網(wǎng)絡(luò),因此,VGG通常會(huì)被用于各種各樣的應(yīng)用程序。

而另一方面,VGG主要的缺陷在于如果從頭開始訓(xùn)練的話,其訓(xùn)練速度會(huì)非常慢。即使是用一個(gè)相當(dāng)不錯(cuò)的GPU,它還是需要超過(guò)一周的時(shí)間才能正常運(yùn)行。

3

GoogleNet

GoogleNet(又稱“InceptionNet”)是由谷歌的研究人員們?cè)O(shè)計(jì)的一個(gè)網(wǎng)絡(luò)架構(gòu)。GoogleNet在2014年的 ImageNet大賽中獲得了冠軍,證明了它是一個(gè)功能強(qiáng)大的模型。

在這個(gè)網(wǎng)絡(luò)架構(gòu)中,研究人員們不僅加深了網(wǎng)絡(luò)深度(GoogleNet包含22個(gè)層,而VGG網(wǎng)絡(luò)只有19個(gè)層),還研究出了一個(gè)叫做“Inception模塊”的新方法。

介紹了計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)比較成功的10個(gè)深度學(xué)習(xí)架構(gòu)

如上圖所示,這個(gè)架構(gòu)與我們之前看到的有序性架構(gòu)相比,發(fā)生了巨大的改變。在單個(gè)層中出現(xiàn)了各種各樣的“特征提取器”。這間接地提高了網(wǎng)絡(luò)的性能,因?yàn)楫?dāng)處理任務(wù)時(shí),網(wǎng)絡(luò)在自我訓(xùn)練過(guò)程中的選擇非常廣泛。它既可以選擇卷積輸入,也可以選擇直接將輸入聚積起來(lái)。

介紹了計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)比較成功的10個(gè)深度學(xué)習(xí)架構(gòu)

最終的架構(gòu)包含了許多一個(gè)個(gè)相互疊加的Inception模塊。大部分最上面的層都有它們自己的輸出層,所以GoogleNet的訓(xùn)練與其他模型有細(xì)微的差別。但這些差別能夠幫助模型更快地完成卷積,因?yàn)檫@些層不僅有共同的訓(xùn)練,還有各自獨(dú)立的訓(xùn)練。

GoogleNet的優(yōu)勢(shì)有:

1.GoogleNet的訓(xùn)練速度比VGGNet要快。

2.與預(yù)訓(xùn)練的VGG網(wǎng)絡(luò)相比,預(yù)訓(xùn)練的GoogleNet所占規(guī)模更小。一個(gè)VGG模型所占空間可以超過(guò)500MB,而GoogleNet只占96MB。

目前為止,GoogleNet還沒(méi)有直接的缺陷,但是文章中提出了一些有助于GoogleNet進(jìn)一步完善的改變方案。其中有一個(gè)改變方案被稱作“XceptionNet”,在這個(gè)網(wǎng)絡(luò)中,“初始模塊”的散度限制被提高了。理論上來(lái)說(shuō),其散度現(xiàn)在可以是無(wú)限的了。

4

ResNet

ResNet是一個(gè)真正地定義了深度學(xué)習(xí)架構(gòu)深度的網(wǎng)絡(luò)架構(gòu)。“殘差網(wǎng)絡(luò)”,也就是我們所說(shuō)的ResNet,包含了許多連續(xù)的“殘差模塊”,這些“殘差模塊”構(gòu)成了ResNet架構(gòu)的基礎(chǔ)。“殘差模塊”如下圖所示:

簡(jiǎn)單來(lái)說(shuō),一個(gè)“殘差模塊”有兩個(gè)選擇——它可以選擇在輸入上執(zhí)行一組函數(shù),也可以選擇跳過(guò)這些步驟。

與GoogleNet類似,這些“殘差模塊”相互疊加,從而形成一個(gè)完整的網(wǎng)絡(luò)的。

由ResNet引入的一些新技術(shù)有:

1.使用標(biāo)準(zhǔn)的SGD,而不是花哨的“自適應(yīng)學(xué)習(xí)”技術(shù)。這是通過(guò)一個(gè)能夠保持正常訓(xùn)練的初始化函數(shù)來(lái)完成的。

2.改變輸入預(yù)處理的方式,先將輸入分批,然后再輸入至網(wǎng)絡(luò)。

ResNet的主要優(yōu)勢(shì)在于,成千上萬(wàn)的殘差層都能用于建立一個(gè)網(wǎng)絡(luò),而且都能被用于訓(xùn)練。這與平常的“時(shí)序網(wǎng)絡(luò)”稍有不同,“時(shí)序網(wǎng)絡(luò)”的性能會(huì)因?yàn)閷訑?shù)的增加而降低。

5

ResNeXt

據(jù)稱,ResNeXt是目前為止最先進(jìn)的物體識(shí)別技術(shù)。ResNeXt建立于inception和ResNet的基礎(chǔ)之上,是一個(gè)全新的、改良的網(wǎng)絡(luò)架構(gòu)。下圖總結(jié)了ResNeXt的一個(gè)殘差模塊:

介紹了計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)比較成功的10個(gè)深度學(xué)習(xí)架構(gòu)

6

RCNN(Region Based CNN)

RCNN據(jù)說(shuō)是用于解決物體識(shí)別問(wèn)題的深度學(xué)習(xí)架構(gòu)中最具影響力的網(wǎng)絡(luò)架構(gòu)。為了解決識(shí)別檢測(cè)問(wèn)題,RCNN試圖框出圖像中的所有物體,然后再識(shí)別圖像中的物體具體是什么。其操作流程如下:

介紹了計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)比較成功的10個(gè)深度學(xué)習(xí)架構(gòu)

RCNN的結(jié)構(gòu)如下圖:

7

YOLO (You Only Look Once)

YOLO是目前為止最先進(jìn)的實(shí)時(shí)圖像識(shí)別系統(tǒng),它是以深度學(xué)習(xí)為基礎(chǔ)的。正如我們?cè)谙聢D中所看到的,它首先將圖像分成一個(gè)個(gè)小方格;然后將識(shí)別算法一一運(yùn)行于這些格子,判斷每個(gè)格子分別屬于什么物體類別,之后把同一類別的方格合并起來(lái),形成一個(gè)個(gè)最準(zhǔn)確的物體框。
介紹了計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)比較成功的10個(gè)深度學(xué)習(xí)架構(gòu)

這些操作都是各自獨(dú)立完成的,因此能夠?qū)崿F(xiàn)實(shí)時(shí)運(yùn)行。一秒內(nèi)最多能夠處理40張圖像。

雖然與其對(duì)應(yīng)的RCNN相比,YOLO的性能降低了,但是它的實(shí)時(shí)處理功能在處理日常問(wèn)題中仍有巨大的優(yōu)勢(shì)。以下是YOLO網(wǎng)絡(luò)架構(gòu):

介紹了計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)比較成功的10個(gè)深度學(xué)習(xí)架構(gòu)

8

SqueezeNet

SqueezeNet架構(gòu)是一個(gè)功能更加強(qiáng)大的網(wǎng)絡(luò)架構(gòu),它在類似移動(dòng)平臺(tái)這樣的低寬帶場(chǎng)景中非常有用。這個(gè)網(wǎng)絡(luò)架構(gòu)僅占4.9MB的空間,而Inception則占超過(guò)100MB空間。這樣顯著的變化來(lái)源于一個(gè)叫做“fire模塊”的結(jié)構(gòu)。“fire模塊”如下圖所示:
介紹了計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)比較成功的10個(gè)深度學(xué)習(xí)架構(gòu)

下圖為squeezeNet的最終架構(gòu):

9

SegNet

SegNet是一個(gè)用于解決圖像分割的深度學(xué)習(xí)架構(gòu)。它包含了一系列處理層(編碼器)以及一組用于像素分類的對(duì)應(yīng)的解碼器。下圖總結(jié)了SegNet的操作過(guò)程:

介紹了計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)比較成功的10個(gè)深度學(xué)習(xí)架構(gòu)

SegNet的一個(gè)關(guān)鍵特征是:在分割圖像中保留了高頻率的細(xì)節(jié),因?yàn)榫幋a網(wǎng)絡(luò)的聚積索引與解碼網(wǎng)絡(luò)的聚積索引是相互連接的。簡(jiǎn)言之,信息的傳遞是直接的,而不是通過(guò)間接的卷積實(shí)現(xiàn)的。SegNet是處理圖像分割問(wèn)題時(shí)的最佳模型。

10

GAN (Generative Adversarial Network)

GAN是一個(gè)完全不同的神經(jīng)網(wǎng)絡(luò)架構(gòu),其中的神經(jīng)網(wǎng)絡(luò)被用于生成一個(gè)全新的不存在的圖像,這個(gè)圖像看似在訓(xùn)練數(shù)據(jù)集中出現(xiàn)過(guò),但實(shí)際上并沒(méi)有。下圖是GAN的分解示意圖。

介紹了計(jì)算機(jī)視覺(jué)領(lǐng)域內(nèi)比較成功的10個(gè)深度學(xué)習(xí)架構(gòu)

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:數(shù)據(jù)科學(xué)家必須知道的 10 個(gè)深度學(xué)習(xí)架構(gòu)

文章出處:【微信號(hào):melux_net,微信公眾號(hào):人工智能大趨勢(shì)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    計(jì)算機(jī)視覺(jué)/深度學(xué)習(xí)領(lǐng)域常用數(shù)據(jù)集匯總

    、定位、檢測(cè)等研究工作大多基于此數(shù)據(jù)集展開。Imagenet數(shù)據(jù)集文檔詳細(xì),有專門的團(tuán)隊(duì)維護(hù),使用非常方便,在計(jì)算機(jī)視覺(jué)領(lǐng)域研究論文中應(yīng)用非常廣,幾乎成為了目前深度
    發(fā)表于 08-29 10:36

    請(qǐng)問(wèn)計(jì)算機(jī)視覺(jué)深度學(xué)習(xí)要看什么書?

    計(jì)算機(jī)視覺(jué)深度學(xué)習(xí),看這本書就夠了
    發(fā)表于 05-21 12:43

    深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)領(lǐng)域圖像應(yīng)用總結(jié) 精選資料下載

    突破的領(lǐng)域,真正讓大家大吃一驚的顛覆傳統(tǒng)方法的應(yīng)用領(lǐng)域是語(yǔ)音識(shí)別,做出來(lái)的公司是微軟,而不是當(dāng)時(shí)如日中天的谷歌。計(jì)算機(jī)視覺(jué)應(yīng)用深度
    發(fā)表于 07-28 08:22

    超全!深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)領(lǐng)域應(yīng)用一覽(附鏈接)精選資料分享

    這是一份深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)領(lǐng)域的超全應(yīng)用預(yù)覽~簡(jiǎn)單回顧的話,2006年Geof...
    發(fā)表于 07-28 07:35

    深度學(xué)習(xí)與傳統(tǒng)計(jì)算機(jī)視覺(jué)簡(jiǎn)介

    文章目錄1 簡(jiǎn)介1.1 深度學(xué)習(xí)與傳統(tǒng)計(jì)算機(jī)視覺(jué)1.2 性能考量1.3 社區(qū)支持2 結(jié)論3 參考在計(jì)算機(jī)
    發(fā)表于 12-23 06:17

    技術(shù) | 深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)領(lǐng)域的瓶頸已至

    霍金的弟子,約翰霍普金斯大學(xué)教授Alan Yuille提出“深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)領(lǐng)域的瓶頸已至。
    的頭像 發(fā)表于 07-05 10:07 ?2742次閱讀

    深度學(xué)習(xí)后的計(jì)算機(jī)視覺(jué)應(yīng)用領(lǐng)域解析

    計(jì)算機(jī)視覺(jué)是使用計(jì)算機(jī)及相關(guān)設(shè)備對(duì)生物視覺(jué)的一種模擬,是人工智能領(lǐng)域的一個(gè)重要部分,它主要任務(wù)是
    發(fā)表于 07-22 16:49 ?1978次閱讀

    深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)上的四大應(yīng)用

    計(jì)算機(jī)視覺(jué)比較成功深度學(xué)習(xí)的應(yīng)用,包括人臉識(shí)別,圖像問(wèn)答,物體檢測(cè),物體跟蹤。
    的頭像 發(fā)表于 08-24 16:16 ?5172次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>上的四大應(yīng)用

    DL和傳統(tǒng)計(jì)算機(jī)視覺(jué)比較

    來(lái)自《Deep Learning vs. Traditional Computer Vision》 摘要: 深度學(xué)習(xí)推動(dòng)了數(shù)字圖像處理領(lǐng)域的極限。但是,這并不是說(shuō)傳統(tǒng)計(jì)算機(jī)
    的頭像 發(fā)表于 10-31 11:06 ?5642次閱讀
    DL和傳統(tǒng)<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>的<b class='flag-5'>比較</b>

    深度學(xué)習(xí)和傳統(tǒng)計(jì)算機(jī)視覺(jué)技術(shù)在新興領(lǐng)域比較

    是不是深度學(xué)習(xí)就可以解決所有問(wèn)題呢?是不是它就比傳統(tǒng)計(jì)算機(jī)視覺(jué)方法好呢?但是深度學(xué)習(xí)無(wú)法解決所有
    的頭像 發(fā)表于 11-28 11:01 ?1948次閱讀

    淺談深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)領(lǐng)域的三大瓶頸

    深度學(xué)習(xí)能夠?qū)崿F(xiàn)的前提是大量經(jīng)過(guò)標(biāo)注的數(shù)據(jù),這使得計(jì)算機(jī)視覺(jué)領(lǐng)域的研究人員傾向于在數(shù)據(jù)資源豐富的領(lǐng)域
    發(fā)表于 06-11 10:22 ?594次閱讀
    淺談<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b><b class='flag-5'>領(lǐng)域</b>的三大瓶頸

    計(jì)算機(jī)視覺(jué)中的九種深度學(xué)習(xí)技術(shù)

    計(jì)算機(jī)視覺(jué)中仍有許多具有挑戰(zhàn)性的問(wèn)題需要解決。然而,深度學(xué)習(xí)方法正在針對(duì)某些特定問(wèn)題取得最新成果。 在最基本的問(wèn)題上,最有趣的不僅僅是深度
    發(fā)表于 08-21 09:56 ?880次閱讀
    <b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>中的九種<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>技術(shù)

    反思深度學(xué)習(xí)與傳統(tǒng)計(jì)算機(jī)視覺(jué)的關(guān)系

    某種程度上,深度學(xué)習(xí)最大的優(yōu)勢(shì)就是自動(dòng)創(chuàng)建沒(méi)有人會(huì)想到的特性能力。如今,深度學(xué)習(xí)在眾多領(lǐng)域都有一席之地,尤其是在
    的頭像 發(fā)表于 09-12 08:29 ?733次閱讀
    反思<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>與傳統(tǒng)<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺(jué)</b>的關(guān)系

    計(jì)算機(jī)視覺(jué)的主要研究方向

    計(jì)算機(jī)視覺(jué)(Computer Vision, CV)作為人工智能領(lǐng)域的一個(gè)重要分支,致力于使計(jì)算機(jī)能夠像人眼一樣理解和解釋圖像和視頻中的信息
    的頭像 發(fā)表于 06-06 17:17 ?1689次閱讀

    深度學(xué)習(xí)計(jì)算機(jī)視覺(jué)領(lǐng)域的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)作為其中的核心技術(shù)之一,已經(jīng)在計(jì)算機(jī)視覺(jué)領(lǐng)域取得了顯著的成果。計(jì)算機(jī)
    的頭像 發(fā)表于 07-01 11:38 ?1568次閱讀