0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一種廣義的線性回歸分析模型:邏輯回歸

鼎酷IOT部落 ? 來(lái)源:未知 ? 作者:李倩 ? 2018-05-25 15:29 ? 次閱讀

邏輯回歸又稱(chēng)邏輯回歸分析,是一種廣義的線性回歸分析模型,常用于數(shù)據(jù)挖掘、疾病自動(dòng)診斷、經(jīng)濟(jì)預(yù)測(cè)等領(lǐng)域。

邏輯回歸是始于輸出結(jié)果為實(shí)際意義的連續(xù)值的線性回歸,因此與多重性線性回歸分析有很多的相同之處。

邏輯回歸模型

邏輯回歸是一種極易理解的模型,就相當(dāng)于y=f(x),表明自變量x與因變量y的關(guān)系。最常見(jiàn)的問(wèn)題如:醫(yī)生治病時(shí)的望聞問(wèn)切,之后判斷病人是否生病或生了什么病,其中的望聞問(wèn)切就是獲取自變量x,即特征數(shù)據(jù),判斷是否生病就相當(dāng)于獲取因變量y,及預(yù)測(cè)分類(lèi)。

圖1 線性回歸示例

最簡(jiǎn)單的回歸就是線性回歸,借用Andrew NG的講義來(lái)說(shuō),如圖1.a所示,x為數(shù)據(jù)點(diǎn)---腫瘤的大小,y為觀測(cè)值---是否有惡性腫瘤。通過(guò)構(gòu)建線性回歸模型,如hθ(x)所示,構(gòu)建線性回歸模型后,既可以根據(jù)腫瘤大小,預(yù)測(cè)是否為惡性腫瘤hθ(x)≥0.5為惡性,hθ(x)<0.5為良性。

同時(shí)線性回歸的魯棒性很差,例如在圖1.b的數(shù)據(jù)集上建立回歸,因最右邊噪點(diǎn)的存在,使回歸模型在訓(xùn)練集上表現(xiàn)都很差。這主要是由于線性回歸在整個(gè)實(shí)數(shù)域內(nèi)敏感度一致,而分類(lèi)范圍,需要在[0,1]。邏輯回歸就是一種減少預(yù)測(cè)范圍,將預(yù)測(cè)值限定為[0,1]間的一種回歸模型,其回歸方程與回歸曲線如圖2所示。邏輯曲線在z=0時(shí),十分敏感,在z>>0或z<<0處,都不敏感,將預(yù)測(cè)值限定為(0,1)。

圖2 邏輯方程與邏輯曲線

邏輯回歸其實(shí)僅為在線性回歸的基礎(chǔ)上,套用了一個(gè)邏輯函數(shù),但也就由于這個(gè)邏輯函數(shù),邏輯回歸成為了機(jī)器學(xué)習(xí)領(lǐng)域一顆耀眼的明星,更是計(jì)算廣告學(xué)的核心,對(duì)于多元邏輯回歸,可用如下公式似和分類(lèi),其中公式(4)的變換,將在邏輯回歸模型參數(shù)估計(jì)時(shí),化簡(jiǎn)公式帶來(lái)很多益處,y={0,1}為分類(lèi)結(jié)果。

2. 判定邊界

為什么邏輯回歸能夠解決分類(lèi)問(wèn)題呢?我們可以用判定邊界來(lái)解釋?zhuān)梢岳斫鉃槭怯脤?duì)不同類(lèi)別的數(shù)據(jù)分割的邊界,邊界的兩旁應(yīng)該是不同類(lèi)別的數(shù)據(jù)。

從二維直角坐標(biāo)系中,舉幾個(gè)例子,大概是如下這三種類(lèi)型:

從上述三幅圖中,紅綠樣本點(diǎn)為不同類(lèi)別的樣本,而我們劃出的線,不管是直線、圓或者是曲線,都能比較好地將圖中的兩類(lèi)樣本分隔開(kāi),這就是我們所說(shuō)的判定邊界,那么邏輯回歸是如何根據(jù)樣本點(diǎn)來(lái)獲得這些判定邊界的呢?

我們依舊借用Andrew NG教授的課程中部分例子來(lái)講述這個(gè)問(wèn)題。

回到sigmoid函數(shù),我們發(fā)現(xiàn),當(dāng)g(z)≥0.5時(shí), z≥0;對(duì)于hθ(x)=g(θTX)≥0.5, 則θTX≥0, 此時(shí)意味著預(yù)估y=1;反之,當(dāng)預(yù)測(cè)y = 0時(shí),θTX<0; 所以我們認(rèn)為θTX =0是一個(gè)決策邊界,當(dāng)它大于0或小于0時(shí),邏輯回歸模型分別預(yù)測(cè)不同的分類(lèi)結(jié)果。先看第一個(gè)例子hθ(x)=g(θ0+θ1X1+θ2X2),其中θ0 ,θ1 ,θ2分別取-3, 1, 1。則當(dāng)?3+X1+X2≥0時(shí), y = 1; 則X1+X2=3是一個(gè)決策邊界,圖形表示如下,剛好把圖上的兩類(lèi)點(diǎn)區(qū)分開(kāi)來(lái):

例1只是一個(gè)線性的決策邊界,當(dāng)hθ(x)更復(fù)雜的時(shí)候,我們可以得到非線性的決策邊界,例如:

這時(shí)當(dāng)x12+x22≥1時(shí),我們判定y=1,這時(shí)的決策邊界是一個(gè)圓形,如下圖所示:

所以我們發(fā)現(xiàn),理論上說(shuō),只要我們的hθ(x)設(shè)計(jì)足夠合理,準(zhǔn)確的說(shuō)是g(θTx)中θTx足夠復(fù)雜,我們能在不同的情形下,擬合出不同的判定邊界,從而把不同的樣本點(diǎn)分隔開(kāi)來(lái)。

直觀地在二維空間理解邏輯回歸,是singmoid函數(shù)的特征,使得判定的閾值能夠映射為平面的一條判定邊界,當(dāng)然隨著特征的復(fù)雜化,判定邊界可能是多種多樣的樣貌,但是它能夠較好地把兩類(lèi)樣本點(diǎn)分隔開(kāi),解決分類(lèi)問(wèn)題。

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 邏輯
    +關(guān)注

    關(guān)注

    2

    文章

    831

    瀏覽量

    29428
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8353

    瀏覽量

    132315

原文標(biāo)題:機(jī)器學(xué)習(xí)|一文帶你讀懂什么是邏輯回歸

文章出處:【微信號(hào):dkiot888,微信公眾號(hào):鼎酷IOT部落】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    matlab回歸分析總結(jié)

    1、多元線性回歸2、多項(xiàng)式回歸3、非線性回歸4、逐步回歸[hide][/hide]
    發(fā)表于 03-20 10:26

    淺析邏輯回歸

    ML-邏輯回歸-公式推導(dǎo)- 多種實(shí)現(xiàn)
    發(fā)表于 04-25 15:35

    線性回歸定義

    線性回歸與評(píng)價(jià)指標(biāo)-2
    發(fā)表于 09-03 14:24

    回歸算法之邏輯回歸的介紹

    回歸算法之邏輯回歸
    發(fā)表于 05-21 16:25

    回歸算法有哪些,常用回歸算法(3)詳解

    邏輯回歸。另一種用于兩個(gè)或更多輸出變量的常見(jiàn)技術(shù)是 OneVsAll。對(duì)于多類(lèi)型邏輯回歸,交叉熵?fù)p失函數(shù)被修改為: 其中,K 是類(lèi)別總數(shù)。更
    發(fā)表于 07-28 14:36

    TensorFlow實(shí)現(xiàn)簡(jiǎn)單線性回歸

    ??梢詫?duì)數(shù)據(jù)進(jìn)行歸化處理: 為訓(xùn)練數(shù)據(jù)聲明 TensorFlow 占位符: 創(chuàng)建 TensorFlow 的權(quán)重和偏置變量且初始值為零: 定義用于預(yù)測(cè)的線性回歸模型: 定義損失函數(shù):
    發(fā)表于 08-11 19:34

    TensorFlow實(shí)現(xiàn)多元線性回歸(超詳細(xì))

    在 TensorFlow 實(shí)現(xiàn)簡(jiǎn)單線性回歸的基礎(chǔ)上,可通過(guò)在權(quán)重和占位符的聲明中稍作修改來(lái)對(duì)相同的數(shù)據(jù)進(jìn)行多元線性回歸。在多元線性
    發(fā)表于 08-11 19:35

    如何用C語(yǔ)言實(shí)現(xiàn)個(gè)簡(jiǎn)單的線性回歸算法

    今天我們用C語(yǔ)言實(shí)現(xiàn)個(gè)簡(jiǎn)單的線性回歸算法;在代碼前面我們?cè)诨仡?b class='flag-5'>一下線性回歸。線性
    發(fā)表于 07-20 06:34

    8 進(jìn)行簡(jiǎn)單線性回歸的方法分析與討論

    本文中,作者討論了 8 在 Python 環(huán)境下進(jìn)行簡(jiǎn)單線性回歸計(jì)算的算法,不過(guò)沒(méi)有討論其性能的好壞,而是對(duì)比了其相對(duì)計(jì)算復(fù)雜度的度量。 對(duì)于大多數(shù)數(shù)據(jù)科學(xué)家而言,線性
    發(fā)表于 01-05 08:18 ?1w次閱讀
    8 <b class='flag-5'>種</b>進(jìn)行簡(jiǎn)單<b class='flag-5'>線性</b><b class='flag-5'>回歸</b>的方法<b class='flag-5'>分析</b>與討論

    基于Weierstrass逼近定理在非線性回歸模型中應(yīng)用

    基于Weierstrass逼近定理,闡釋了將般非線性回歸模型近似為多項(xiàng)式模型來(lái)處理的數(shù)學(xué)原理,從而引入了把多元非線性回歸
    發(fā)表于 01-12 09:59 ?0次下載

    掌握l(shuí)ogistic regression模型,有必要先了解線性回歸模型和梯度下降法

    先回想一下線性回歸,線性回歸模型幫助我們用最簡(jiǎn)單的線性方程實(shí)現(xiàn)了對(duì)數(shù)據(jù)的擬合,然而,這只能完成
    的頭像 發(fā)表于 06-04 11:31 ?7558次閱讀
    掌握l(shuí)ogistic regression<b class='flag-5'>模型</b>,有必要先了解<b class='flag-5'>線性</b><b class='flag-5'>回歸</b><b class='flag-5'>模型</b>和梯度下降法

    廣義線性模型介紹

    ,softmax回歸是多項(xiàng)分布+對(duì)數(shù)最大似然估計(jì)的結(jié)果,最大熵是基于期望+對(duì)數(shù)似然估計(jì)的結(jié)果。前三者可以從廣義線性模型角度來(lái)看。
    的頭像 發(fā)表于 11-22 15:10 ?4255次閱讀

    機(jī)器學(xué)習(xí)的線性回歸分析

    線性回歸是利用數(shù)理統(tǒng)計(jì)中回歸分析,來(lái)確定兩或兩以上變量間相互依賴(lài)的定量關(guān)系的
    的頭像 發(fā)表于 01-23 17:33 ?2927次閱讀
    機(jī)器學(xué)習(xí)的<b class='flag-5'>線性</b><b class='flag-5'>回歸</b><b class='flag-5'>分析</b>

    機(jī)器學(xué)習(xí)的回歸分析回歸方法

    根據(jù)受歡迎程度,線性回歸邏輯回歸經(jīng)常是我們做預(yù)測(cè)模型時(shí),且第個(gè)學(xué)習(xí)的算法。但是如果認(rèn)為
    的頭像 發(fā)表于 01-19 17:22 ?3838次閱讀

    基于低秩表示的魯棒線性回歸模型

    數(shù)據(jù)干凈部分,并將其應(yīng)用于線性回歸分類(lèi),從而提升回歸性能。在 Extend Yaleb、AR、ORL和PIE人臉數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,與標(biāo)準(zhǔn)線性
    發(fā)表于 05-28 10:56 ?4次下載