女人自慰AV免费观看内涵网,日韩国产剧情在线观看网址,神马电影网特片网,最新一级电影欧美,在线观看亚洲欧美日韩,黄色视频在线播放免费观看,ABO涨奶期羡澄,第一导航fulione,美女主播操b

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

關于線性回歸實物相關介紹

lviY_AI_shequ ? 來源:未知 ? 作者:工程師郭婷 ? 2018-07-27 11:07 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

1 原理

1.1 引入

線性回歸是最為常用的一種數據分析手段,通常我們拿到一組數據后,都會先看一看數據中各特征之間是否存在明顯的線性關系。例如,現在我們拿到了一組學校中所有學生基本資料的數據,該數據以二維表格的形式呈現,如下表所示。

關于線性回歸實物相關介紹

示例數據表

每行代表一個學生,每列代表該學生的一個屬性(或稱為特征),那么如果我們對特征進行仔細觀察,不難發現身高和年齡總是呈現正相關關系,數學成績與物理成績也基本呈現正相關關系。那么我們是否可以給這樣的兩個特征之間擬合出一條近似的直線來表達他們之間的線性函數關系呢?這里我們的想法其實就是機器學習的世界觀:數據驅動構建模型。

1.2 模型

只不過這里的模型非常簡單,只是線性模型,也就是一條直線方程,通長我們可以表達成如下公式:

關于線性回歸實物相關介紹

這里,數據中我們將某一特征列作為自變量 x (例如身高),因變量 y (如體重)也就是我們想要預測的值, x 和 y 都已知,現在的任務就是:加入新增了一個 x ,而其對應的 y 未知,那么我們該如何預測出一個 它?顯然,我們需要構建 y 與 x 之間的函數關系:關于線性回歸實物相關介紹對于身高體重這樣的簡單問題而言,就可以直接使用上述的線性方程作為我們想要擬合的模型。

接下來的問題就是,如何擬合這個模型,也就是說,如何求得線性模型中的兩個參數 w 和 b?

1.3 損失函數

要求解最佳的參數,首先我們需要讓計算機知道一個目標,畢竟解決任何問題都需要確立一個明確的目標才行,對于計算機這樣的數字世界,我們就需要給它確定一個定量化的目標函數式,在優化問題中,我們通常稱之為目標函數,或者損失函數(Loss function)。無論我們選擇什么樣的模型,最終都是可以得到一組預測值 ,對比已有的真實值 y ,數據行數為 n ,我們很自然地可以將損失函數定義如下:

關于線性回歸實物相關介紹

即預測值與真實值之間的平均的平方距離,統計中我們一般稱其為MAE(mean square error)均方誤差。把之前我們確定的關于線性回歸實物相關介紹 帶入損失函數:

關于線性回歸實物相關介紹

注意,對于損失函數 L 而言,其自變量不再是我們習慣中的 x(其實 x 和 y 都是在訓練數據中的已知值),損失函數 L 的自變量應該是我們要求解的參數 w 和 b,因此我們可以把損失函數重新記為:

關于線性回歸實物相關介紹

現在,我們的任務就是希望把這個損失函數交給計算機,然后跟計算機說,幫我把這個函數最小化,然后告訴我 L 最小時的一組 w 和 b 是多少就行了。但是顯然計算機還沒那么聰明,它并不知道怎么算,我們還是要靠自己解決。

核心的優化目標式:

關于線性回歸實物相關介紹

這里有兩種方式:

一種是“最小二乘法”(least square method),可直接求解;

另一種是梯度下降(gradient descent),有關梯度下降的方法原理可參考我之前這篇文章 -》 [link]。

1.4 最小二乘法

求解 和 是使損失函數最小化的過程,在統計中,稱為線性回歸模型的最小二乘“參數估計”(parameter estimation)。我們可以將 L 分別對 w 和 b 求導,得到:

關于線性回歸實物相關介紹

令上述兩式為0,可得到 w 和 b 最優解的閉式(closed-form)解:

關于線性回歸實物相關介紹

1.5 梯度下降法求解

關于線性回歸實物相關介紹

2 代碼實現 (使用梯度下降法)

首先建立 liner_regression.py 文件,用于實現線性回歸的類文件,包含了線性回歸內部的核心函數。

建立 train.py 文件,用于生成模擬數據,并調用 liner_regression.py 中的類,完成線性回歸任務。

顯示結果:

關于線性回歸實物相關介紹

原始數據x, y和擬合的直線方程

關于線性回歸實物相關介紹

利用梯度下降法優化過程中損失函數的下降情況

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 線性回歸
    +關注

    關注

    0

    文章

    41

    瀏覽量

    4442

原文標題:線性回歸(Liner Regression) —— 蘊含機器學習基本思想的入門級模型

文章出處:【微信號:AI_shequ,微信公眾號:人工智能愛好者社區】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關推薦
    熱點推薦

    matlab回歸分析總結

    1、多元線性回歸2、多項式回歸3、非線性回歸4、逐步回歸[hide][/hide]
    發表于 03-20 10:26

    單變量線性回歸算法的符號定義和代價函數

    吳恩達機器學習筆記(二)——單變量線性回歸
    發表于 03-08 12:50

    線性回歸的標準方程法使用

    線性回歸-標準方程法示例(python原生實現)
    發表于 05-07 16:44

    線性回歸定義

    線性回歸與評價指標-2
    發表于 09-03 14:24

    生產應用中使用線性回歸進行實際操練

    線性回歸】生產應用中使用線性回歸進行實際操練
    發表于 05-08 07:45

    Tensorflow的非線性回歸

    Tensorflow 非線性回歸
    發表于 05-12 10:19

    機器學習100天之多元線性回歸

    機器學習100天-多元線性回歸 [代碼實現細節分析]
    發表于 05-12 15:06

    Multivariate Linear Regression多變量線性回歸

    吳恩達機器學習-手寫筆記三 - Multivariate Linear Regression 多變量線性回歸
    發表于 06-11 17:02

    回歸算法有哪些,常用回歸算法(3種)詳解

    線性回歸(多個輸入變量,多個輸出變量)。更多線性回歸相關內容,可參考https://en.wikipedia.org/wiki/Line
    發表于 07-28 14:36

    TensorFlow實現簡單線性回歸

    本小節直接從 TensorFlow contrib 數據集加載數據。使用隨機梯度下降優化器優化單個訓練樣本的系數。實現簡單線性回歸的具體做法導入需要的所有軟件包: 在神經網絡中,所有的輸入都線性增加
    發表于 08-11 19:34

    TensorFlow實現多元線性回歸(超詳細)

    在 TensorFlow 實現簡單線性回歸的基礎上,可通過在權重和占位符的聲明中稍作修改來對相同的數據進行多元線性回歸。在多元線性
    發表于 08-11 19:35

    如何用C語言實現一個簡單的一元線性回歸算法

    今天我們用C語言實現一個簡單的線性回歸算法;在代碼前面我們在回顧一下線性回歸線性回歸
    發表于 07-20 06:34

    使用PyMC3包實現貝葉斯線性回歸

    1、如何使用PyMC3包實現貝葉斯線性回歸  PyMC3(現在簡稱為PyMC)是一個貝葉斯建模包,它使數據科學家能夠輕松地進行貝葉斯推斷。  PyMC3采用馬爾可夫鏈蒙特卡羅(MCMC)方法計算后驗
    發表于 10-08 15:59

    PyTorch教程3.1之線性回歸

    電子發燒友網站提供《PyTorch教程3.1之線性回歸.pdf》資料免費下載
    發表于 06-05 11:30 ?0次下載
    PyTorch教程3.1之<b class='flag-5'>線性</b><b class='flag-5'>回歸</b>

    多元線性回歸的特點是什么

    何為多元線性回歸?對比于前一天學習的線性回歸,多元線性回歸的特點是什么? 多元
    的頭像 發表于 10-31 10:34 ?1905次閱讀
    多元<b class='flag-5'>線性</b><b class='flag-5'>回歸</b>的特點是什么