0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)的線性回歸分析

汽車玩家 ? 來源:CSDN ? 作者:是DRR啊 ? 2020-01-23 17:33 ? 次閱讀

概述

線性回歸是利用數(shù)理統(tǒng)計(jì)中回歸分析,來確定兩種或兩種以上變量間相互依賴的定量關(guān)系的一種統(tǒng)計(jì)分析方法,運(yùn)用十分廣泛。其表達(dá)形式為y = w’x+e,e為誤差服從均值為0的正態(tài)分布。

回歸分析中,只包括一個(gè)自變量和一個(gè)因變量,且二者的關(guān)系可用一條直線近似表示,這種回歸分析稱為一元線性回歸分析。如果回歸分析中包括兩個(gè)或兩個(gè)以上的自變量,且因變量和自變量之間是線性關(guān)系,則稱為多元線性回歸分析。

機(jī)器學(xué)習(xí)的線性回歸分析

機(jī)器學(xué)習(xí)的線性回歸分析

通過線性回歸構(gòu)造出來的函數(shù)一般稱之為了線性回歸模型。線性回歸模型的函數(shù)一般寫作為:

機(jī)器學(xué)習(xí)的線性回歸分析

損失函數(shù)

機(jī)器學(xué)習(xí)的線性回歸分析

把每條小豎線的長度加起來就是預(yù)測值與真實(shí)值的差距。那每條小豎線的長度的加和怎么算?其實(shí)就是歐式距離加和,公式如下:

機(jī)器學(xué)習(xí)的線性回歸分析

機(jī)器學(xué)習(xí)的線性回歸分析

通過線性回歸算法,我們可能會得到很多的線性回歸模型,但是不同的模型對于數(shù)據(jù)的擬合或者是描述能力是不一樣的。我們的目的最終是需要找到一個(gè)能夠最精確地描述數(shù)據(jù)之間關(guān)系的線性回歸模型。這是就需要用到代價(jià)函數(shù)。代價(jià)函數(shù)就是用來描述線性回歸模型與正式數(shù)據(jù)之前的差異。如果完全沒有差異,則說明此線性回歸模型完全描述數(shù)據(jù)之前的關(guān)系。如果需要找到最佳擬合的線性回歸模型,就需要使得對應(yīng)的代價(jià)函數(shù)最小,相關(guān)的公式描述如下:

機(jī)器學(xué)習(xí)的線性回歸分析

Hypothesis:表示的就是線性回歸模型

Cost Function:代價(jià)函數(shù)

Goal:就是要求對應(yīng)的代價(jià)函數(shù)最小

線性回歸模型求解

假設(shè)在線性回歸模型中僅僅只存在一個(gè)函數(shù),就是斜率參數(shù)。即theta-0是0。如果存在如下的數(shù)據(jù):

機(jī)器學(xué)習(xí)的線性回歸分析

圖中對應(yīng)的3個(gè)點(diǎn)分別為(1,1),(2,2),(3,3)那么很明顯,最佳線性回歸模型就是h(x)=x。如果通過實(shí)驗(yàn)證明呢?我們畫出在theta-1處于不同值的代價(jià)函數(shù)。

機(jī)器學(xué)習(xí)的線性回歸分析

線性回歸模型的特點(diǎn)

① 建模速度快,不需要很復(fù)雜的計(jì)算,在數(shù)據(jù)量大的情況下依然運(yùn)行速度很快。

② 可以根據(jù)系數(shù)給出每個(gè)變量的理解和解釋。

③ 對異常值很敏感。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8349

    瀏覽量

    132312
  • 線性回歸
    +關(guān)注

    關(guān)注

    0

    文章

    41

    瀏覽量

    4292
收藏 人收藏

    評論

    相關(guān)推薦

    機(jī)器學(xué)習(xí)實(shí)戰(zhàn)之logistic回歸

    logistic回歸是一種廣義的線性回歸,通過構(gòu)造回歸函數(shù),利用機(jī)器學(xué)習(xí)來實(shí)現(xiàn)分類或者預(yù)測。 原
    的頭像 發(fā)表于 09-29 15:17 ?2306次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>實(shí)戰(zhàn)之logistic<b class='flag-5'>回歸</b>

    分享一個(gè)自己寫的機(jī)器學(xué)習(xí)線性回歸梯度下降算法

    單變量線性回歸算法,利用Batch梯度梯度下降算法迭代計(jì)算得到誤差最小的代價(jià)函數(shù)theta0,theta1。調(diào)節(jié)學(xué)習(xí)率a可以觀察擬合得到的函數(shù)和代價(jià)函數(shù)誤差收斂情況。
    發(fā)表于 10-02 21:48

    單變量線性回歸算法的符號定義和代價(jià)函數(shù)

    吳恩達(dá)機(jī)器學(xué)習(xí)筆記(二)——單變量線性回歸
    發(fā)表于 03-08 12:50

    機(jī)器學(xué)習(xí)回歸任務(wù)

    常見線性回歸理論與算法實(shí)現(xiàn)
    發(fā)表于 10-29 11:09

    機(jī)器學(xué)習(xí)100天之多元線性回歸

    機(jī)器學(xué)習(xí)100天-多元線性回歸 [代碼實(shí)現(xiàn)細(xì)節(jié)分析]
    發(fā)表于 05-12 15:06

    簡單線性回歸代碼實(shí)現(xiàn)細(xì)節(jié)分析

    機(jī)器學(xué)習(xí)100天-簡單線性回歸 [代碼實(shí)現(xiàn)細(xì)節(jié)分析]
    發(fā)表于 05-22 10:16

    斯坦福機(jī)器學(xué)習(xí)公開課筆記之單變量線性回歸

    斯坦福機(jī)器學(xué)習(xí)公開課筆記 一 --單變量線性回歸
    發(fā)表于 06-11 13:53

    Multivariate Linear Regression多變量線性回歸

    吳恩達(dá)機(jī)器學(xué)習(xí)-手寫筆記三 - Multivariate Linear Regression 多變量線性回歸
    發(fā)表于 06-11 17:02

    TensorFlow實(shí)現(xiàn)簡單線性回歸

    器: 聲明初始化操作符: 現(xiàn)在,開始計(jì)算圖,訓(xùn)練 100 次: 查看結(jié)果:解讀分析從下圖中可以看到,簡單線性回歸器試圖擬合給定數(shù)據(jù)集的線性線: 在下圖中可以看到,隨著模型不斷
    發(fā)表于 08-11 19:34

    如何幫你的回歸問題選擇最合適的機(jī)器學(xué)習(xí)算法

    回歸分析機(jī)器學(xué)習(xí)領(lǐng)域應(yīng)用非常廣泛,例如,商品的銷量預(yù)測問題,交通流量預(yù)測問題。那么,如何為這些回歸問題選擇最合適的
    的頭像 發(fā)表于 05-03 09:39 ?2808次閱讀

    機(jī)器學(xué)習(xí)回歸分析回歸方法

    根據(jù)受歡迎程度,線性回歸和邏輯回歸經(jīng)常是我們做預(yù)測模型時(shí),且第一個(gè)學(xué)習(xí)的算法。但是如果認(rèn)為回歸就兩個(gè)算法,就大錯(cuò)特錯(cuò)了。事實(shí)上我們有許多類型
    的頭像 發(fā)表于 01-19 17:22 ?3836次閱讀

    你了解機(jī)器學(xué)習(xí)中的線性回歸

    線性回歸是對數(shù)據(jù)中簡單關(guān)系建模的寶貴工具。 雖然它不像更現(xiàn)代的機(jī)器學(xué)習(xí)方法那么花哨或復(fù)雜,但它通常是許多存在直接關(guān)系的現(xiàn)實(shí)世界數(shù)據(jù)集的正確工具。
    發(fā)表于 02-24 14:03 ?1767次閱讀

    10大常用機(jī)器學(xué)習(xí)算法匯總

    本文介紹了10大常用機(jī)器學(xué)習(xí)算法,包括線性回歸、Logistic回歸線性判別
    發(fā)表于 11-20 11:10 ?2714次閱讀

    機(jī)器學(xué)習(xí)回歸模型相關(guān)重要知識點(diǎn)總結(jié)

    來源:機(jī)器學(xué)習(xí)研習(xí)院回歸分析為許多機(jī)器學(xué)習(xí)算法提供了堅(jiān)實(shí)的基礎(chǔ)。在這篇文章中,我們將總結(jié)10個(gè)重
    的頭像 發(fā)表于 11-10 10:02 ?796次閱讀
    <b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>回歸</b>模型相關(guān)重要知識點(diǎn)總結(jié)

    深入探討線性回歸與柏松回歸

    或許我們所有人都會學(xué)習(xí)的第一個(gè)機(jī)器學(xué)習(xí)算法就是線性回歸算法,它無疑是最基本且被廣泛使用的技術(shù)之一——尤其是在預(yù)測
    的頭像 發(fā)表于 03-18 14:06 ?559次閱讀
    深入探討<b class='flag-5'>線性</b><b class='flag-5'>回歸</b>與柏松<b class='flag-5'>回歸</b>