女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

工程師應(yīng)該怎樣學(xué)習(xí)機(jī)器學(xué)習(xí)算法

工程師人生 ? 來(lái)源:工程師吳畏 ? 2019-05-05 16:45 ? 次閱讀

1.前言 — 程序員是一個(gè)知識(shí)更新較為迅速的一個(gè)職業(yè),這個(gè)行業(yè)的知識(shí)的更新速度,有的時(shí)候會(huì)超過(guò)你的學(xué)習(xí)速度。大部分的人都在不斷的更新自己的知識(shí)體系,這里筆者要向讀者安利一下機(jī)器學(xué)習(xí)(包含深度學(xué)習(xí))的重要性,以及常見(jiàn)的知識(shí)。作為個(gè)人能力的提升,筆者覺(jué)得這一點(diǎn)是程序猿/媛,需要掌握的一想技能。 其實(shí)在互聯(lián)網(wǎng)公司工作過(guò)的同學(xué)都應(yīng)該有這樣的感觸,我們正在從IT到DT的轉(zhuǎn)型,算法在應(yīng)用中變得越來(lái)越重要了。

處在向DT轉(zhuǎn)型中的我們也就理所當(dāng)然的需要掌握DT的核心——算法。外界將大數(shù)據(jù)吵得如火如荼,但對(duì)于業(yè)內(nèi)人來(lái)說(shuō),這些東西只是吵概念而已,簡(jiǎn)單的大數(shù)據(jù)是沒(méi)有太大意義的,數(shù)據(jù)就好比是發(fā)動(dòng)機(jī)運(yùn)轉(zhuǎn)需要的燃料,而算法則是發(fā)動(dòng)機(jī)。只有有了發(fā)動(dòng)機(jī)數(shù)據(jù)才能發(fā)揮它的價(jià)值。就像石油已經(jīng)在地下沉睡千萬(wàn)年,在發(fā)動(dòng)機(jī)產(chǎn)生前并沒(méi)有人認(rèn)識(shí)到它的價(jià)值,但發(fā)動(dòng)機(jī)產(chǎn)生后,石油才成為像黃金一樣珍貴的東西。所以我們必須掌握算法知識(shí)才能更好的駕馭DT這輛戰(zhàn)車。

然而在實(shí)際的工作中所謂的算法工程師,實(shí)際上大部分應(yīng)該叫做“算法應(yīng)用工程師”,很少有算法工程師能夠產(chǎn)生自己的算法。我這么說(shuō)肯定有人要拍磚,但實(shí)際上確實(shí)是這樣的。比如做一些分類問(wèn)題用邏輯回歸、SVM等常用算法,對(duì)于一些復(fù)雜問(wèn)題,如圖像分類用CNN處理,稍微復(fù)雜一點(diǎn)的NLP問(wèn)題用RNN處理。很多算法工程師日常工作大部分用在數(shù)據(jù)處理、訓(xùn)練數(shù)據(jù)集選擇、校驗(yàn)數(shù)據(jù)集選擇等,不斷的調(diào)節(jié)參數(shù)從而獲得較好的效果。這里不是詆毀那些努力工作的算法同學(xué),我在研究生的時(shí)候也是搞機(jī)器學(xué)習(xí)的,工作后,先搞工程、又混合著搞算法,如分類問(wèn)題,類目映射(將A網(wǎng)站的商品映射到B網(wǎng)站的類目下)、接著搞NLP(基于RNN和CRF做slotfilling)…,接著又搞工程…。我想說(shuō)的是算法沒(méi)我們認(rèn)為的那么復(fù)雜,但實(shí)際上又遠(yuǎn)比我們認(rèn)識(shí)的復(fù)雜。

為什么說(shuō)算法不復(fù)雜卻又很復(fù)雜?其實(shí)這并不矛盾。說(shuō)其不復(fù)雜是因?yàn)槲覀儾槐赝耆莆毡澈髲?fù)雜的公式推導(dǎo),只需要知道背后的物理意義、知道響應(yīng)的算法或模型適合處理的問(wèn)題、知道如何調(diào)節(jié)相關(guān)的參數(shù)等即可。說(shuō)其復(fù)雜是因?yàn)楸澈蟮耐茖?dǎo)確實(shí)很麻煩,就拿常用的SVM算法來(lái)說(shuō),讀書的時(shí)候硬生生的是照著PPT推導(dǎo)了一周才推導(dǎo)成功(也反映出自己數(shù)學(xué)基礎(chǔ)有點(diǎn)渣)…。繼續(xù)說(shuō)復(fù)雜性,要非常純熟的掌握相應(yīng)算法的核心,需要對(duì)線性代數(shù)、概率、微積分等重要的數(shù)學(xué)知識(shí)掌握和理解的較為透徹。這里不得不說(shuō)我們的大學(xué)里相關(guān)的數(shù)學(xué)教育,感覺(jué)線性代數(shù)、概率、微積分講得不徹底,只是學(xué)了知識(shí)點(diǎn)但背后的物理意義卻沒(méi)能講清楚,比如矩陣相關(guān)運(yùn)算的物理意義就是在實(shí)際的算法中才體會(huì)到的,數(shù)學(xué)真應(yīng)該讓計(jì)算機(jī)老師來(lái)講。話說(shuō)的有點(diǎn)多,但對(duì)于程序員來(lái)說(shuō)我覺(jué)得數(shù)學(xué)知識(shí)必須要學(xué)的扎實(shí),特別對(duì)于學(xué)校中的學(xué)生來(lái)說(shuō),其他課程可以不太用心,但數(shù)學(xué)相關(guān)必須牢牢地掌握,要用心,特別要掌握其背后的物理意義。

為什么我們要掌握算法呢?首先感覺(jué)是因?yàn)榄h(huán)境的變化,因?yàn)樗惴ㄗ兊迷絹?lái)越重要,如之前的新聞,谷歌轉(zhuǎn)型:把2.5萬(wàn)工程師變成機(jī)器學(xué)習(xí)專家,google都已經(jīng)走在前列了,也足見(jiàn)機(jī)器學(xué)習(xí)越來(lái)越重要了。現(xiàn)在很多產(chǎn)品,工程只是對(duì)算法進(jìn)行包裝,很多產(chǎn)品的核心是算法,如滴滴、Uber。

其次,工程師懂算法,真的有點(diǎn)像流氓會(huì)武術(shù),誰(shuí)也攔不住了。一方面增加自己的核心競(jìng)爭(zhēng)力,另一方面在團(tuán)隊(duì)溝通的時(shí)候也更加方便。很多算法工程師的架構(gòu)、系統(tǒng)能力不足,如果工程師懂得算法,那么可以和算法同學(xué)順暢溝通,有助于產(chǎn)品或項(xiàng)目的實(shí)現(xiàn)。

最后,對(duì)于在校生、再找工作、畢業(yè)生或者剛工作的同學(xué),能夠掌握機(jī)器學(xué)習(xí)的基本知識(shí)能夠增加你的核心競(jìng)爭(zhēng)力,在競(jìng)爭(zhēng)面前更容易脫穎而出(特別是在面試的時(shí)候,不一定要有實(shí)戰(zhàn)經(jīng)驗(yàn),你能講的清楚也是很不錯(cuò)的)。

總之,個(gè)人覺(jué)得,對(duì)于工程師而言,學(xué)習(xí)機(jī)器學(xué)習(xí)相關(guān)算法是提升個(gè)人核心競(jìng)爭(zhēng)力的重要一步。那么接下來(lái)筆者就在這里進(jìn)一步闡述作為工程師應(yīng)該掌握哪些相關(guān)算法、如何去學(xué)習(xí)相關(guān)算法。

###2.基礎(chǔ)知識(shí) — #####2.1 線性代數(shù)基礎(chǔ)知識(shí) 個(gè)人覺(jué)得線性代數(shù)知識(shí)是在工作中用的最廣的大學(xué)知識(shí),特別是矩陣相關(guān)知識(shí)在實(shí)際應(yīng)用中使用最為廣泛。但從個(gè)人經(jīng)驗(yàn)看,很多畢業(yè)生對(duì)于線性代數(shù)特別是矩陣相關(guān)知識(shí)掌握的很膚淺,對(duì)矩陣的理解很不到位,曾經(jīng)問(wèn)過(guò)一些畢業(yè)生,對(duì)于矩陣的SVD很多人會(huì)解,但背后的物理意義卻模糊不清。 講義鏈接:[Linear Algebra Review and Reference](http://ai-coder.com/batbus/pdf/cs229-linalg.pdf) #####2.2 概率基礎(chǔ)知識(shí) 概率知識(shí)是也是實(shí)際工作中使用較為廣泛的知識(shí),從BAT的筆試題中可以看出,概率計(jì)算基本是逢考比用的。其中較為常用的就是貝葉斯定理了,在復(fù)習(xí)這部分的知識(shí)的時(shí)候,一定要弄清楚相關(guān)定理的前置條件。 講義鏈接:[Review of Probability Theory](http://ai-coder.com/batbus/pdf/cs229-prob.pdf) #####2.3 凸優(yōu)化 在許多機(jī)器學(xué)習(xí)算法中,我們最終是求一個(gè)目標(biāo)函數(shù)的最大值或最小值,很多時(shí)候這種問(wèn)題最終歸咎為目標(biāo)函數(shù)的優(yōu)化問(wèn)題,實(shí)質(zhì)是一種凸優(yōu)化問(wèn)題,所以讀者需要掌握一些凸優(yōu)化問(wèn)題的基礎(chǔ)知識(shí)。 講義鏈接:[Convex Optimization Overview](http://ai-coder.com/batbus/pdf/cs229-cvxopt.pdf) ######注:講義來(lái)源于Stanford深度學(xué)習(xí)與NLP課程前置基礎(chǔ)知識(shí) — ###3.應(yīng)該了解哪些算法 這里不會(huì)對(duì)相關(guān)的算法做展開(kāi),只想從個(gè)人轉(zhuǎn)型的經(jīng)歷向讀者闡述,應(yīng)該掌握哪些常見(jiàn)的機(jī)器學(xué)習(xí)算法,以及學(xué)習(xí)中應(yīng)該注意的事項(xiàng)。相關(guān)的算法以及有很多博客可以參考,但個(gè)人覺(jué)得還是要先讀一遍原論文,讀不懂沒(méi)關(guān)系,能理解多少理解多少,再參考別人寫的解釋理解一遍。如果直接讀別人的博客,有可能被誤導(dǎo),之后再反過(guò)頭來(lái)再讀一讀原論文,這樣感覺(jué)理解的能好一些。當(dāng)然也推薦大家直接學(xué)習(xí)Andrew Ng的公開(kāi)課,講的比較容易懂。而且已經(jīng)好幾年了,相關(guān)的討論、講義標(biāo)注都很全面了,對(duì)于初學(xué)者來(lái)說(shuō)是一個(gè)好的學(xué)習(xí)資源。 — ####3.1 常見(jiàn)的特征提取方法 其實(shí)特征選擇(提?。┦亲鳛楸O(jiān)督學(xué)習(xí)中特別重要的一個(gè)環(huán)節(jié)。往往我們要處理的問(wèn)題可能供處理的特征特別多,我們減少特征的數(shù)量,比如圖像處理,如果完全用像素,對(duì)于一張1000*1000的圖片,那么特征就是一個(gè)1000*1000這種高維的特征,我們需要降低這個(gè)特征的維度,這個(gè)過(guò)程就叫做特征提?。ㄟx擇)。對(duì)于圖像我們常用sift特征。常用的降維方法包括(個(gè)人常用): ######1.PCA(主成分分析) 這是一種無(wú)監(jiān)督的降維方法,準(zhǔn)確的說(shuō)應(yīng)該是一種空間映射方法,PCA一次尋找一組正交的映射空間,并且使得能夠在這個(gè)映射空間上方差最大。這個(gè)方法使用的頻率較高,也比較典型,比較容易掌握。一般的教材書中都有相關(guān)的介紹,在Andrew Ng的課程中有相關(guān)介紹,可以直接學(xué)習(xí)。 ######2.基于樹(shù)的方法 這里嗎需要讀者理解一些常用的概念如”熵”,”信息增益”等,基于樹(shù)的方法,可以通過(guò)剪枝的方式來(lái)去掉那些對(duì)于結(jié)果沒(méi)什么大的影響的特征。這里面對(duì)于”熵”的理解,要強(qiáng)調(diào)一下,”熵”可以理解為不確定性,你可以認(rèn)為是”商量”,熵越大,不確定性越高,就越需要”商量”,越小,代表確定性越高。關(guān)于樹(shù)的相關(guān)方法,在國(guó)內(nèi)的機(jī)器學(xué)習(xí)教材中都有明確的闡釋。

######3.SVD(矩陣分解) 矩陣分解這是機(jī)器學(xué)習(xí)里面非常重要的一個(gè)線性代數(shù)知識(shí),能夠很好的起到降維的效果。在自然語(yǔ)言處理中較為常用。比如X是word-》document的矩陣,關(guān)于SVD雖然在公開(kāi)課中有講解,但感覺(jué)還是語(yǔ)言的理解有問(wèn)題,理解的不是很透徹,發(fā)現(xiàn)這個(gè)哥們寫的相關(guān)機(jī)器學(xué)習(xí)的博客講的還都比較通透,所以讀者可以參考他的這篇博文理解一下。

相關(guān)博文:強(qiáng)大的矩陣奇異值分解

####3.2 常用機(jī)器學(xué)習(xí)算法 這里面會(huì)向讀者介紹一下工作中常用的相關(guān)機(jī)器學(xué)習(xí)算法,當(dāng)然這里也不會(huì)詳細(xì)解釋,這里只是告訴讀者存在并且常用這些算法,筆試和面試中往往會(huì)考察面試者對(duì)于這些知識(shí)的掌握。對(duì)于如何學(xué)習(xí),筆者覺(jué)得最好優(yōu)先讀paper,再看看公開(kāi)課和相關(guān)博客。 ##### 3.2.1 常見(jiàn)聚類算法 聚類算法是我們常用的算法其思想比較容易理解,符合大腦處理問(wèn)題的思維邏輯。我們常見(jiàn)的聚類算法包括Kmeans、EM算法等,下面簡(jiǎn)單羅列一下: SimpleKmeans算法:接受輸入?yún)?shù)K,然后將數(shù)據(jù)集劃分為K歌聚簇,同一個(gè)聚簇中的相似度較高,不同聚簇的相似度較小。 Xmeans算法:Kmeans的改進(jìn),在總體中通過(guò)Kmeans產(chǎn)生聚類,再分別對(duì)每個(gè)聚類進(jìn)行Kmeas的迭代,將某些子類進(jìn)行聚類,直到達(dá)到用戶設(shè)定的次數(shù)為止。 EM算法:期望最大化算法(Expectation Maximization Algorithm),是一種迭代算法,用于含有隱變量(hidden variable)的概率參數(shù)模型的最大似然估計(jì)或極大后驗(yàn)概率估計(jì)。這里需要說(shuō)下,EM算法背后的理論、推導(dǎo)最好好好掌握,這個(gè)掌握了,大部分的推導(dǎo)和理論基本都cover了。 相關(guān)博文:[常用聚類算法介紹之聚類種類和算法列表](http://ai-coder.com/batbus/html/blog_detail.php?blog_id=250) ##### 3.2.2 常見(jiàn)分類、回歸算法 分類和回歸問(wèn)題,其實(shí)可以拿到一起來(lái)講。如果我的問(wèn)題最終是要將待處理的數(shù)據(jù)明確分為若干類別(常用的有二元分類、多元分類),那么就是分類問(wèn)題,如果最終需要映射到一個(gè)數(shù)值區(qū)間,那么就是回歸問(wèn)題,比如預(yù)測(cè)一個(gè)人犯罪的概率,如果需要判斷是否犯罪,那么就是一個(gè)分類問(wèn)題(是和否),如果要給個(gè)概率那么就是一個(gè)回歸問(wèn)題。 這里面我們常用的算法有SVM、LR、隨機(jī)森林、樸素貝葉斯。 線性回歸(Linear Regression):結(jié)果易于理解,計(jì)算上不復(fù)雜,但對(duì)非線性數(shù)據(jù)擬合不好。應(yīng)該是線上應(yīng)用最為廣泛的模型,簡(jiǎn)約而不簡(jiǎn)單,更重要的是快!LR的推導(dǎo)是必須要掌握的! SVM:通俗的講,SVM是一種二類分類模型,其模型的定義為特征空間上的間隔最大的線性分類器。其學(xué)習(xí)策略是使得間隔最大化,最終可以轉(zhuǎn)化為凸優(yōu)化問(wèn)題。簡(jiǎn)單的理解就是,在低維空間中難以劃分的問(wèn)題,將其映射到一個(gè)高維空間,在高維空間使得數(shù)據(jù)可以線性劃分。 樸素貝葉斯:樸素貝葉斯是貝葉斯理論的一部分,是一種概率模型,即選擇較高概率的決策。其前置條件是: (1)每個(gè)特征之間相互獨(dú)立。 (2)每個(gè)特征同等重要。 在數(shù)據(jù)較少的情況下仍然有效,可以處理多類別問(wèn)題。但對(duì)于輸入數(shù)據(jù)較為敏感。 隨機(jī)森林(Random Forest):隨機(jī)森林比較適合做多分類問(wèn)題,其優(yōu)點(diǎn)是: 訓(xùn)練和預(yù)測(cè)速度快; 對(duì)訓(xùn)練數(shù)據(jù)的容錯(cuò)能力好; 實(shí)現(xiàn)簡(jiǎn)單且易并行 當(dāng)數(shù)據(jù)集中有大比例的數(shù)據(jù)缺失時(shí)仍然可以保持精度不變和能夠有效地處理大的數(shù)據(jù)集;可以處理沒(méi)有刪減的成千上萬(wàn)的變量;能夠在分類的過(guò)程中可以生成一個(gè)泛化誤差的內(nèi)部無(wú)偏估計(jì);能夠檢測(cè)到特征之間的相互影響以及重要性程度。但容易出現(xiàn)過(guò)度擬合。 實(shí)際上該算法實(shí)際上可以理解為專投票算法,一個(gè)森林可以拆解成很多樹(shù),每個(gè)樹(shù)都是一個(gè)決策算法,可以理解成一個(gè)領(lǐng)域?qū)<?,眾多專家組合成一個(gè)森林,對(duì)于待處理的問(wèn)題,專家組進(jìn)行投票,最終少數(shù)服從多數(shù),由票數(shù)決定結(jié)果。 ####3.3 深度學(xué)習(xí)相關(guān)算法 深度學(xué)習(xí)是近幾年較為火的一種學(xué)習(xí)方式,目前在實(shí)際工作中使用的越來(lái)越廣,往往不需要較為復(fù)雜的調(diào)優(yōu)就能達(dá)到其他常用的調(diào)優(yōu)過(guò)后的機(jī)器學(xué)習(xí)算法達(dá)到的水平,也就是說(shuō),他的baseline很高,隨著向caffee、tensorflow等框架使用的推廣,這些深度模型實(shí)現(xiàn)起來(lái)越來(lái)越簡(jiǎn)單,所以工程師就越來(lái)越有必要掌握這些深度學(xué)習(xí)算法。你可以在機(jī)器上安裝tensorflow就能夠嘗試在本機(jī)上進(jìn)行手寫體識(shí)別、word2Vector訓(xùn)練等,趕緊動(dòng)起來(lái)吧。 關(guān)于學(xué)習(xí),可以參考Stanford深度學(xué)習(xí)和NLP的公開(kāi)課,講的還比較透徹,但需要讀者掌握在文章第二部分提到的一些數(shù)學(xué)知識(shí)。 ##### 3.3.1 RNN(Recursive Neural Network) RNN是較為常用的深度模型,常用的有兩種變體,一種是時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent neural network),另一種是結(jié)構(gòu)遞歸神經(jīng)網(wǎng)絡(luò)(Recursive neural network)。時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)的神經(jīng)元間連接構(gòu)成有向圖,而結(jié)構(gòu)遞歸神經(jīng)網(wǎng)絡(luò)利用相似的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)遞歸構(gòu)造更為復(fù)雜的深度網(wǎng)絡(luò)。兩者訓(xùn)練的算法不同,但屬于同一算法變體。 Recurrent是在時(shí)間維度的展開(kāi),能夠有效的表示信息在時(shí)間維度上從前往后的的傳遞和積累,你可以和馬爾科夫鏈做類比。 Recursive是在空間維度的展開(kāi),你可以認(rèn)為他是一種結(jié)構(gòu)上遞歸的結(jié)構(gòu),對(duì)應(yīng)為棵樹(shù)。在NLP領(lǐng)域用的較為廣泛,能夠很好的提取出結(jié)構(gòu)信息,其示意圖如下

二相比之下時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)如下:

##### 3.3.2 RNN(Recurrent Neural Network) 常見(jiàn)的示意圖如下所示,其核心就是每輪的運(yùn)算都充分結(jié)合上一輪的迭代結(jié)果。

目前最為常見(jiàn)的時(shí)間遞歸神經(jīng)網(wǎng)絡(luò)就是LSTM(Long-Short-Term-Memories)。按照時(shí)間序列進(jìn)行展開(kāi)如下圖

由上圖可見(jiàn)一般包括書入門、忘記門、輸出門,能夠很好的學(xué)習(xí)當(dāng)前特征同時(shí)兼顧上下文信息。目前較多的用于NLP范疇,其能夠較好的保留上下文信息,這樣在語(yǔ)義理解、摘要生成、情感分析等問(wèn)題處理上都能得到一個(gè)較好的結(jié)果。

讀者可以不去掌握其復(fù)雜的推導(dǎo),但其背后的物理意義、這種思想是必須掌握的,應(yīng)用的時(shí)候,大部分都是利用現(xiàn)有框架去處理。所以這里再?gòu)?qiáng)調(diào)一遍,如果精力有限那么就要重其意。

3.3.3 RNN模型比較

其實(shí)兩種模型的區(qū)別在3.3.1中已經(jīng)做了區(qū)分,這里按照Stanford深度學(xué)習(xí)和NLP課程中所述進(jìn)行一下模型對(duì)比。

Recursive Neural Network:在語(yǔ)言層解釋性較好,能夠保留骨干信息,可應(yīng)用在句法分析、短語(yǔ)識(shí)別。

Recurrent Neural Network: 在語(yǔ)意上解釋性較好,很多人利用其做了很多好玩的,如自動(dòng)寫詩(shī)之類的,訓(xùn)練是一個(gè)個(gè)字符的讀取后訓(xùn)練。通常情況下雖然不是最好的結(jié)果,但是結(jié)果也不差,特別是在引入了”門”之后,提示較為明顯。

3.3.4 CNN(Convolutional Neural network)

卷積神經(jīng)網(wǎng)絡(luò)由于避免了對(duì)圖像的復(fù)雜前期預(yù)處理,可以直接輸入原始圖像(需要尺寸format處理),因而得到了更為廣泛的應(yīng)用。

一般地,CNN的基本結(jié)構(gòu)包括兩層,其一為特征提取層,每個(gè)神經(jīng)元的輸入與前一層的局部接受域相連,并提取該局部的特征。一旦該局部特征被提取后,它與其它特征間的位置關(guān)系也隨之確定下來(lái);其二是特征映射層,網(wǎng)絡(luò)的每個(gè)計(jì)算層由多個(gè)特征映射組成,每個(gè)特征映射是一個(gè)平面,平面上所有神經(jīng)元的權(quán)值相等。

CNN主要用來(lái)識(shí)別位移、縮放及其他形式扭曲不變性的二維圖形。由于CNN的特征檢測(cè)層通過(guò)訓(xùn)練數(shù)據(jù)進(jìn)行學(xué)習(xí),所以在使用CNN時(shí),避免了顯示的特征抽取,而隱式地從訓(xùn)練數(shù)據(jù)中進(jìn)行學(xué)習(xí)。

這里讀者需要掌握卷積的物理意義、全鏈接和局部鏈接、知道為什么要池化、常見(jiàn)的池化方法等,這樣對(duì)CNN就基本掌握了,剩下的就是應(yīng)用了。

4.總結(jié)

無(wú)論是學(xué)士還是已經(jīng)工作的工程師,掌握一些機(jī)器學(xué)習(xí)算法,對(duì)于自己都是增加了自己的核心競(jìng)爭(zhēng)力,在DT轉(zhuǎn)型的過(guò)程中,會(huì)讓自己走的更遠(yuǎn)。如今無(wú)論是Google、微軟還是Amazon都在開(kāi)放自己的機(jī)器學(xué)習(xí)平臺(tái),阿里云上的機(jī)器學(xué)習(xí)平臺(tái)也可以直接使用,這些平臺(tái)的開(kāi)放大大降低了我們對(duì)于算法的使用難度,我們無(wú)需向那些真正的算法專家一樣去發(fā)明算法,只要我們知其然、也知其所以然,就能夠利用這些知識(shí)去解決實(shí)際問(wèn)題。

對(duì)于還在學(xué)校里學(xué)習(xí)的同學(xué)要充分利用自己的時(shí)間,在數(shù)學(xué)基礎(chǔ)上打撈,對(duì)常用的機(jī)器學(xué)習(xí)算法和深度學(xué)習(xí)算法都有所掌握。對(duì)于開(kāi)源的tensorflow、caffee等代表性平臺(tái)和框架,要勇于嘗試,在未來(lái)的筆試和面試中一定會(huì)脫穎而出的。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
收藏 人收藏

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    電子硬件工程師如何從零開(kāi)始學(xué)習(xí)?(文末免費(fèi)分享從零開(kāi)始學(xué)習(xí)資料)

    經(jīng)常有用戶咨詢,如何學(xué)習(xí)和提升電子硬件能力,有沒(méi)有適合小白學(xué)習(xí)的資料等等;電子硬件工程師是一個(gè)結(jié)合理論、實(shí)踐和創(chuàng)新能力的職業(yè),需要掌握電路設(shè)計(jì)、元器件選型、PCB設(shè)計(jì)、嵌入式系統(tǒng)、測(cè)試調(diào)試等多方面
    的頭像 發(fā)表于 06-04 07:36 ?71次閱讀
    電子硬件<b class='flag-5'>工程師</b>如何從零開(kāi)始<b class='flag-5'>學(xué)習(xí)</b>?(文末免費(fèi)分享從零開(kāi)始<b class='flag-5'>學(xué)習(xí)</b>資料)

    工程師經(jīng)驗(yàn)分享:社區(qū)之星 趙云 沉著穩(wěn)定才能做好技術(shù)

    控制算法理論和實(shí)踐有過(guò)推導(dǎo)和大量的研發(fā)調(diào)試經(jīng)驗(yàn)。 ? 工作經(jīng)歷: 華為技術(shù)有限公司---芯片驗(yàn)證工程師 上海問(wèn)問(wèn)網(wǎng)絡(luò)科技有限公司---電機(jī)驅(qū)動(dòng)軟件工程師 ? ? ? 社區(qū)訪談: 社區(qū)小助手:可以分享一下您的
    的頭像 發(fā)表于 04-15 15:58 ?273次閱讀
    <b class='flag-5'>工程師</b>經(jīng)驗(yàn)分享:社區(qū)之星  趙云 沉著穩(wěn)定才能做好技術(shù)

    傳統(tǒng)機(jī)器學(xué)習(xí)方法和應(yīng)用指導(dǎo)

    在上一篇文章中,我們介紹了機(jī)器學(xué)習(xí)的關(guān)鍵概念術(shù)語(yǔ)。在本文中,我們會(huì)介紹傳統(tǒng)機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)和多種算法特征,供各位老師選擇。 01 傳統(tǒng)
    的頭像 發(fā)表于 12-30 09:16 ?1043次閱讀
    傳統(tǒng)<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>方法和應(yīng)用指導(dǎo)

    【面試題】人工智能工程師高頻面試題匯總:機(jī)器學(xué)習(xí)深化篇(題目+答案)

    隨著人工智能技術(shù)的突飛猛進(jìn),AI工程師成為了眾多求職者夢(mèng)寐以求的職業(yè)。想要拿下這份工作,面試的時(shí)候得展示出你不僅技術(shù)過(guò)硬,還得能解決問(wèn)題。所以,提前準(zhǔn)備一些面試常問(wèn)的問(wèn)題,比如機(jī)器學(xué)習(xí)的那些
    的頭像 發(fā)表于 12-16 13:42 ?2652次閱讀
    【面試題】人工智能<b class='flag-5'>工程師</b>高頻面試題匯總:<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>深化篇(題目+答案)

    人工智能工程師高頻面試題匯總——機(jī)器學(xué)習(xí)

    隨著人工智能技術(shù)的突飛猛進(jìn),AI工程師成為了眾多求職者夢(mèng)寐以求的職業(yè)。想要拿下這份工作,面試的時(shí)候得展示出你不僅技術(shù)過(guò)硬,還得能解決問(wèn)題。所以,提前準(zhǔn)備一些面試常問(wèn)的問(wèn)題,比如機(jī)器學(xué)習(xí)的那些
    的頭像 發(fā)表于 12-04 17:00 ?1375次閱讀
    人工智能<b class='flag-5'>工程師</b>高頻面試題匯總——<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>篇

    零基礎(chǔ)入門PCB工程師

    各位前輩大家好,零基礎(chǔ)入門PCB工程師,有什么學(xué)習(xí)資料推薦嗎?
    發(fā)表于 11-27 16:54

    NPU與機(jī)器學(xué)習(xí)算法的關(guān)系

    在人工智能領(lǐng)域,機(jī)器學(xué)習(xí)算法是實(shí)現(xiàn)智能系統(tǒng)的核心。隨著數(shù)據(jù)量的激增和算法復(fù)雜度的提升,對(duì)計(jì)算資源的需求也在不斷增長(zhǎng)。NPU作為一種專門為深度學(xué)習(xí)
    的頭像 發(fā)表于 11-15 09:19 ?1096次閱讀

    圖像算法工程師的利器——SpeedDP深度學(xué)習(xí)算法開(kāi)發(fā)平臺(tái)

    隨著人工智能的興起,AI工程師特別是基于圖像的算法工程師日益成為炙手可熱的香餑餑。特別是在一些行業(yè)市場(chǎng)例如工業(yè)領(lǐng)域等行業(yè)領(lǐng)域,需要根據(jù)具體場(chǎng)景對(duì)檢測(cè)識(shí)別算法進(jìn)行不斷地優(yōu)化完善,以達(dá)到更
    的頭像 發(fā)表于 11-08 01:06 ?713次閱讀
    圖像<b class='flag-5'>算法</b><b class='flag-5'>工程師</b>的利器——SpeedDP深度<b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b>開(kāi)發(fā)平臺(tái)

    FPGA算法工程師、邏輯工程師、原型驗(yàn)證工程師有什么區(qū)別?

    ,共同進(jìn)步。 歡迎加入FPGA技術(shù)微信交流群14群! 交流問(wèn)題(一) Q:FPGA中的FPGA算法工程師、FPGA邏輯工程師、FPGA原型驗(yàn)證工程師三者有什么區(qū)別? A:FPGA
    發(fā)表于 09-23 18:26

    BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)機(jī)

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network),即反向傳播神經(jīng)網(wǎng)絡(luò),是一種基于梯度下降算法的多層前饋神經(jīng)網(wǎng)絡(luò),其學(xué)習(xí)機(jī)制的核心在于通過(guò)反向傳播算法
    的頭像 發(fā)表于 07-10 15:49 ?1084次閱讀

    機(jī)器學(xué)習(xí)算法原理詳解

    機(jī)器學(xué)習(xí)作為人工智能的一個(gè)重要分支,其目標(biāo)是通過(guò)讓計(jì)算機(jī)自動(dòng)從數(shù)據(jù)中學(xué)習(xí)并改進(jìn)其性能,而無(wú)需進(jìn)行明確的編程。本文將深入解讀幾種常見(jiàn)的機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 07-02 11:25 ?2174次閱讀

    機(jī)器學(xué)習(xí)的經(jīng)典算法與應(yīng)用

    關(guān)于數(shù)據(jù)機(jī)器學(xué)習(xí)就是喂入算法和數(shù)據(jù),讓算法從數(shù)據(jù)中尋找一種相應(yīng)的關(guān)系。Iris鳶尾花數(shù)據(jù)集是一個(gè)經(jīng)典數(shù)據(jù)集,在統(tǒng)計(jì)學(xué)習(xí)
    的頭像 發(fā)表于 06-27 08:27 ?1956次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>的經(jīng)典<b class='flag-5'>算法</b>與應(yīng)用

    硬件工程師業(yè)余時(shí)間變現(xiàn),應(yīng)該從何處入手?

    硬件工程師們應(yīng)時(shí)刻保持對(duì)技術(shù)的關(guān)注和學(xué)習(xí),以保持自己的競(jìng)爭(zhēng)力。同時(shí),通過(guò)業(yè)余時(shí)間進(jìn)行變現(xiàn)也是一個(gè)很好的學(xué)習(xí)和實(shí)踐機(jī)會(huì)。
    的頭像 發(fā)表于 06-13 16:11 ?1811次閱讀

    嵌入式軟件工程師如何提升自己?

    的基礎(chǔ) 嵌入式軟件工程師需要具備扎實(shí)的計(jì)算機(jī)科學(xué)和工程知識(shí)。因此,在職業(yè)生涯的起步階段,建議將重點(diǎn)放在學(xué)習(xí)基礎(chǔ)知識(shí)上,包括數(shù)據(jù)結(jié)構(gòu)、算法、操作系統(tǒng)、編程語(yǔ)言等。通過(guò)深入
    發(fā)表于 06-12 11:20