機器學(xué)習(xí)萌新必學(xué)的Top10算法
在機器學(xué)習(xí)領(lǐng)域里,不存在一種萬能的算法可以完美解決所有問題,尤其是像預(yù)測建模的監(jiān)督學(xué)習(xí)里。
比方說,神經(jīng)網(wǎng)絡(luò)不見得比決策樹好,同樣反過來也不成立。最后的結(jié)果是有很多因素在起作用的,比方說數(shù)據(jù)集的大小以及組成。所以,針對你要解決的問題,最好是嘗試多種不同的算法。并借一個測試集來評估不同算法之間的表現(xiàn),最后選出一個結(jié)果最好的。
當(dāng)然,你要選適合解決你問題的算法來嘗試。比方說,要打掃房子,你會用真空吸塵器,掃把,拖把;你絕對不會翻出一把鏟子來開始挖坑,對吧。不過呢,對于所有預(yù)測建模的監(jiān)督學(xué)習(xí)算法來說,還是有一些通用的底層原則的。
機器學(xué)習(xí)算法,指的是要學(xué)習(xí)一個目標(biāo)函數(shù),能夠盡可能地還原輸入和輸出之間的關(guān)系。
然后根據(jù)新的輸入值X,來預(yù)測出輸出值Y。精準(zhǔn)地預(yù)測結(jié)果是機器學(xué)習(xí)建模的任務(wù)。
所以我們來了解一下,Top10機器學(xué)習(xí)算法1線性回歸
統(tǒng)計學(xué)與機器學(xué)習(xí)領(lǐng)域里研究最多的算法。做預(yù)測建模,最重要的是準(zhǔn)確性(盡可能減小預(yù)測值和實際值的誤差)。哪怕犧牲可解釋性,也要盡可能提高準(zhǔn)確性。為了達(dá)到這個目的,我們會從不同領(lǐng)域(包括統(tǒng)計學(xué))參考或照搬算法。線性回歸可用一條線表示輸入值X和輸出值Y之間的關(guān)系,這條線的斜率的值,也叫系數(shù)。
比方說,y = B0 + B1*x,我們就可以根據(jù)X值來預(yù)測Y值。機器學(xué)習(xí)的任務(wù)就是找出系數(shù)B0和B1。從數(shù)據(jù)中建立線性回歸的模型有不同的方法,比方說線性代數(shù)的最小二乘法、梯度下降優(yōu)化。線性回歸已經(jīng)存在了200多年,相關(guān)研究已經(jīng)很多了。用這個算法關(guān)鍵在于要盡可能地移除相似的變量以及清洗數(shù)據(jù)。對算法萌新來說,是最簡單的算法了。
2邏輯回歸
這方法來自統(tǒng)計學(xué)領(lǐng)域,是一種可以用在二元分類問題上的方法。邏輯回歸,和線性回歸相似,都是要找出輸入值的系數(shù)權(quán)重。不同的地方在于,對輸出值的預(yù)測改成了邏輯函數(shù)。邏輯函數(shù)看起來像字母S,輸出值的范圍是0到1。把邏輯函數(shù)的輸出值加一個處理規(guī)則,就能得到分類結(jié)果,非0即1。比方說,可以規(guī)定輸入值小于0.5,那么輸出值就是1。
這個算法還可以用來預(yù)測數(shù)據(jù)分布的概率,適用于需要更多數(shù)據(jù)論證支撐的預(yù)測。和線性回歸相似,如果把和輸出不相干的因子或者相近的因子剔除掉的話,邏輯回歸算法的表現(xiàn)會更好。對于二元分類問題,邏輯回歸是個可快速上手又有效的算法。
3線性判別分析
邏輯回歸算法,只能用于二分問題。當(dāng)輸出的結(jié)果類別超過兩類的時候,就要用線性判別分析算法了。這種算法的可視化結(jié)果還比較一目了然,能看出數(shù)據(jù)在統(tǒng)計學(xué)上的特征。這上面的結(jié)果都是分別計算得到的,單一的輸入值可以是每一類的中位數(shù),也可以是每一類值的跨度。
基于對每種類別計算之后所得到的判別值,取最大值做出預(yù)測。這種方法是假定數(shù)據(jù)符合高斯分布。所以,最好在預(yù)測之前把異常值先踢掉。對于分類預(yù)測問題來說,這種算法既簡單又給力。
4分類與回歸樹
預(yù)測模型里,決策樹也是非常重要的一種算法。可以用分兩叉的樹來表示決策樹的模型。每一個節(jié)點代表一個輸入,每個分支代表一個變量(默認(rèn)變量是數(shù)字類型)
決策樹
決策樹的葉節(jié)點指的是輸出變量。預(yù)測的過程會經(jīng)過決策樹的分岔口,直到最后停在了一個葉節(jié)點上,對應(yīng)的就是輸出值的分類結(jié)果。決策樹很好學(xué),也能很快地得到預(yù)測結(jié)果。對于大部分問題來說,得到的結(jié)果還挺準(zhǔn)確,也不要求對數(shù)據(jù)進(jìn)行預(yù)處理。
5樸素貝葉斯分類器
這種預(yù)測建模的算法強大到超乎想象。這種模型,可以直接從你的訓(xùn)練集中計算出來兩種輸出類別的概率。一個是每種輸出種類的概率;另外一個,是根據(jù)給定的x值,得到的是有條件的種類概率。一旦計算之后,概率的模型可以用貝葉斯定理預(yù)測新的數(shù)據(jù)。當(dāng)你的數(shù)據(jù)是實數(shù)值,那么按理說應(yīng)該是符合高斯分布的,也就很容易估算出這個概率。
貝葉斯定理
樸素貝葉斯定理之所以名字里有個“樸素”,是因為這種算法假定每個輸入的變量都是獨立的。不過,真實的數(shù)據(jù)不可能滿足這個隱藏前提。盡管如此,這個方法對很多復(fù)雜的問題還是很管用的。
6K近鄰算法
最近K近鄰的模型表示,就是整個訓(xùn)練集。很直截了當(dāng),對吧?對新數(shù)據(jù)的預(yù)測,是搜索整個訓(xùn)練集的值,找到K個最近的例子(literally的鄰居)。然后總結(jié)K個輸出的變量。這種算法難就難在,怎么定義兩個數(shù)據(jù)的相似度(相距多近算相似)。如果你的特征(attributes)屬于同一個尺度的話,那最簡單的方法是用歐幾里得距離。這個數(shù)值,你可以基于每個輸入變量之間的距離來計算得出。
最近鄰法,需要占用大量的內(nèi)存空間來放數(shù)據(jù),這樣在需要預(yù)測的時候就可以進(jìn)行即時運算(或?qū)W習(xí))。也可以不斷更新訓(xùn)練集,使得預(yù)測更加準(zhǔn)確。距離或親密度這個思路遇到更高維度(大量的輸入變量)就行不通了,會影響算法的表現(xiàn)。這叫做維度的詛咒。當(dāng)(數(shù)學(xué))空間維度增加時,分析和組織高維空間(通常有成百上千維),因體積指數(shù)增加而遇到各種問題場景。所以最好只保留那些和輸出值有關(guān)的輸入變量。
7學(xué)習(xí)矢量量化
最近鄰法的缺點是,你需要整個訓(xùn)練集。而學(xué)習(xí)矢量量化(后簡稱LVQ)這個神經(jīng)網(wǎng)絡(luò)算法,是自行選擇訓(xùn)練樣例。
LVQ,是一組矢量,也叫碼本。一開始,矢量是隨機選的,經(jīng)過幾次學(xué)習(xí)算法迭代之后,慢慢選出最能代表訓(xùn)練集的矢量。學(xué)習(xí)完成后,碼本就可以用來預(yù)測了,就像最近鄰法那樣。計算新輸入樣例和碼本的距離,可以找出最相近的鄰居,也就是最匹配的碼本。如果你重新調(diào)整數(shù)據(jù)尺度,把數(shù)據(jù)歸到同一個范圍里,比如說0到1之間,那就可以獲得最好的結(jié)果。如果用最近鄰法就獲得了不錯的結(jié)果,那么可以再用LVQ優(yōu)化一下,減輕訓(xùn)練集儲存壓力。
8支持向量機(簡稱SVM)
這可能是機器學(xué)習(xí)里最受歡迎的算法了。超平面是一條可以分割輸入變量的空間的“線”。支持向量機的超平面,是能把輸入變量空間盡可能理想地按種類切割,要么是0,要么是1。在二維空間里,你可以把超平面可以分割變量空間的那條“線”。這條線能把所有的輸入值完美一分為二。SVM的學(xué)習(xí)目標(biāo)就是要找出這個超平面。
超平面和挨得最近的數(shù)據(jù)點之間的距離,叫做邊緣。最理想的超平面,是可以無誤差地劃分訓(xùn)練數(shù)據(jù)。 也就是說,每一類數(shù)據(jù)里距離超平面最近的向量與超平面之間的距離達(dá)到最大值。這些點就叫做支持向量,他們定義了超平面。從實際操作上,最理想的算法是能找到這些把最近矢量與超平面值距離最大化的點。支持向量可能是最強的拿來就用的分類器了。值得用數(shù)據(jù)集試試。
9隨機森林
隨機森林,屬于一種重復(fù)抽樣算法,是最受歡迎也最強大的算法之一。在統(tǒng)計學(xué)里,bootstrap是個估算值大小很有效的方法。比方說估算平均值。從數(shù)據(jù)庫中取一些樣本,計算平均值,重復(fù)幾次這樣的操作,獲得多個平均值。然后平均這幾個平均值,希望能得到最接近真實的平均值。而bagging算法,是每次取多個樣本,然后基于這些樣本建模。當(dāng)要預(yù)測新數(shù)據(jù)的時候,之前建的這些模型都做次預(yù)測,最后取這些預(yù)測值的平均數(shù),盡力接近真實的輸出值。
隨機森林在這個基礎(chǔ)上稍微有點變化。它包含多個決策樹的分類器, 并且其輸出的類別是由個別樹輸出的類別的眾數(shù)而定。如果你的高方差算法取得了不錯的結(jié)果(比方說決策樹),那么用隨機森林的話會進(jìn)一步拿到更好的結(jié)果。
10提升(Boosting)算法和自適應(yīng)增強(Adaboost)算法
Boosting的核心是,對同一個訓(xùn)練集訓(xùn)練不同的分類器(弱分類器),然后把這些弱分類器集合起來,構(gòu)成一個更強的最終分類器(強分類器)。所得到的第二個弱分類器會糾正第一個弱分類器的誤差。弱分類器的不斷疊加,直到預(yù)測結(jié)果完美為止。Adaboost算法是首個成功用于二元分類問題的提升算法。現(xiàn)在有很多提升方法都是基于Adaboost。
AdaBoost適用于短的決策樹。在第一個樹建立出來之后,不同的樣本訓(xùn)練之后的表現(xiàn)可以作參考,用不同的樣本訓(xùn)練弱分類器,然后根據(jù)錯誤率給樣本一個權(quán)重。很難預(yù)測的訓(xùn)練數(shù)據(jù)應(yīng)該給更多的權(quán)重,反過來,好預(yù)測的就少一點權(quán)重。模型按順序一個一個建,每個訓(xùn)練數(shù)據(jù)的權(quán)重都會受到上一個決策樹表現(xiàn)的影響。當(dāng)所有的決策樹都建好之后,看新數(shù)據(jù)的預(yù)測表現(xiàn),結(jié)果準(zhǔn)不準(zhǔn)。因為訓(xùn)練數(shù)據(jù)對于矯正算法非常重要,所以要確保數(shù)據(jù)清洗干凈了,不要有奇奇怪怪的偏離值。
最后的最后面對海量的機器學(xué)習(xí)算法,萌新最愛問的是,“我該選什么算法?”在回答這個問題之前,要先想清楚:
1)數(shù)據(jù)的數(shù)量、質(zhì)量、本質(zhì);
2)可供計算的時間;
3)這個任務(wù)的緊急程度;
4)你用這個數(shù)據(jù)想做什么。
要知道,即使是老司機,也無法閉著眼睛說哪個算法能拿到最好的結(jié)果。還是得動手試。其實機器學(xué)習(xí)的算法很多的,以上只是介紹用得比較多的類型,比較適合萌新試試手找找感覺。
-
算法
+關(guān)注
關(guān)注
23文章
4709瀏覽量
95339 -
機器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8501瀏覽量
134577
原文標(biāo)題:機器學(xué)習(xí)萌新必學(xué)的Top10算法
文章出處:【微信號:machinelearningai,微信公眾號:機器學(xué)習(xí)算法與人工智能】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
PROTEL新手最適合的教程我是受益匪淺希望對你有用
如何挑選最適合的PXI/PXIe系統(tǒng)?
如何在STM板上使用機器學(xué)習(xí)算法對通過工業(yè)傳感器獲取的氣體傳感器數(shù)據(jù)進(jìn)行分類?
分享最適合新手入門的10種機器學(xué)習(xí)算法

新手如何接觸機器學(xué)習(xí)的這十大算法一定不能錯過
Python基礎(chǔ)教程之《Python機器學(xué)習(xí)—預(yù)測分析核心算法》免費下載
機器學(xué)習(xí)新手常犯的錯誤怎么避免?
2021年最適合的機器學(xué)習(xí)初創(chuàng)公司進(jìn)行排名
機器學(xué)習(xí)新手基礎(chǔ):十大算法導(dǎo)覽
17個機器學(xué)習(xí)的常用算法
10個機器學(xué)習(xí)中常用的距離度量方法

評論