0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

實(shí)例:如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化

zhKF_jqr_AI ? 來源:未知 ? 作者:易水寒 ? 2017-12-22 11:44 ? 次閱讀

之前,論智曾在TOP 10:初學(xué)者需要掌握的10大機(jī)器學(xué)習(xí)(ML)算法介紹了一些基礎(chǔ)算法及其思路,為了與該帖聯(lián)動(dòng),我們特從機(jī)器學(xué)習(xí)熱門課程HSE的Introduction to Deep Learning和吳恩達(dá)的Neural Networks and Deep Learning中挑選了一些題目,演示Python、TensorFlow和Keras在深度學(xué)習(xí)中的實(shí)戰(zhàn)應(yīng)用.

如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化.

在這個(gè)任務(wù)中,我們將實(shí)現(xiàn)一個(gè)線性分類器,并用numpy和隨機(jī)梯度下降算法對(duì)它進(jìn)行訓(xùn)練。

二元分類

為了更直觀,我們用人造數(shù)據(jù)(synthetic data)解決二元分類問題。

上圖中有紅、藍(lán)兩類數(shù)據(jù),從分布上看它們不是線性可分的。所以為了分類,我們應(yīng)該在里面添加特征或使用非線性模型。請(qǐng)注意,圖中兩類數(shù)據(jù)的決策邊緣都呈圓形,這意味著我們能通過建立二元特征來使它們線性分離,具體思路如下圖所示:

用expand函數(shù)添加二次函數(shù)后,我們得到了這樣的測(cè)試結(jié)果:

  1. # 簡(jiǎn)單的隨機(jī)數(shù)測(cè)試

  2. dummy_X = np.array([

  3. [0,0],

  4. [1,0],

  5. [2.61,-1.28],

  6. [-0.59,2.1]

  7. ])

  8. # 調(diào)用expand函數(shù)

  9. dummy_expanded = expand(dummy_X)

  10. # 它應(yīng)該返回這些值: x0 x1 x0^2 x1^2 x0*x1 1

  11. dummy_expanded_ans = np.array([[0. , 0. , 0. , 0. , 0. , 1. ],

  12. [1. , 0. , 1. , 0. , 0. , 1. ],

  13. [2.61, -1.28, 6.8121, 1.6384, -3.3408, 1. ],

  14. [-0.59, 2.1 , 0.3481, 4.41, -1.239, 1. ]])

logistic回歸

曾經(jīng)我們提到過,logistic回歸非常適合二元分類問題。為了分類對(duì)象,我們需要預(yù)測(cè)對(duì)象表示為1(默認(rèn)類)的概率,這就需要用到線性模型和邏輯函數(shù)的輸出:

  1. defprobability(X, w):

  2. """

  3. 對(duì)輸入賦值特征和權(quán)值

  4. 根據(jù)上式,返回輸入x后y==1的預(yù)測(cè)概率,P(y=1|x)

  5. :參數(shù) X: feature matrix X of shape [n_samples,6] (expanded) →特征矩陣X

  6. :參數(shù) w: weight vector w of shape [6] for each of the expanded features →權(quán)值向量w

  7. :返回值: 范圍在 [0,1] 之間的一系列概率.

  8. """

  9. return1./ (1+ np.exp(-np.dot(X, w)))

在logistic回歸中,我們能通過最小化交叉熵發(fā)現(xiàn)最優(yōu)參數(shù)w:

實(shí)例:如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化
  1. defcompute_loss(X, y, w):

  2. """

  3. 將特征矩陣X [n_samples,6], 目標(biāo)向量 [n_samples] of 1/0,

  4. 以及權(quán)值向量 w [6]代入上述公式, 計(jì)算標(biāo)量的損失函數(shù).

  5. """

  6. return-np.mean(y*np.log(probability(X, w)) + (1-y)*np.log(1-probability(X, w)))

由于用了梯度下降算法訓(xùn)練模型,我們還需要計(jì)算梯度,具體來說,就是要對(duì)每個(gè)權(quán)值的損失函數(shù)求導(dǎo):

以下是具體的數(shù)學(xué)計(jì)算過程(也可點(diǎn)擊https://math.stackexchange.com/questions/477207/derivative-of-cost-function-for-logistic-regression/2539508#2539508查看):

實(shí)例:如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化
  1. defcompute_grad(X, y, w):

  2. """

  3. 將特征矩陣X [n_samples,6], 目標(biāo)向量 [n_samples] of 1/0,

  4. 以及權(quán)值向量 w [6]代入上述公式, 計(jì)算每個(gè)權(quán)值的導(dǎo)數(shù)vector [6].

  5. """

  6. returnnp.dot((probability(X, w) - y), X) / X.shape[0]

訓(xùn)練

現(xiàn)在我們已經(jīng)建立了函數(shù),接下來就該用隨機(jī)梯度下降訓(xùn)練分類器了。我們將試著調(diào)試超參數(shù),如batch size、學(xué)習(xí)率等,來獲得最佳設(shè)置。

Mini-batch SGD

不同于滿梯度下降,隨機(jī)梯度下降在每次迭代中只需要一個(gè)隨機(jī)樣本來計(jì)算其損失的梯度,并進(jìn)入下一個(gè)步驟:

  1. w = np.array([0,0,0,0,0,1])# 初始化

  2. eta =0.05# 學(xué)習(xí)率

  3. n_iter =100

  4. batch_size =4

  5. loss = np.zeros(n_iter)

  6. foriinrange(n_iter):

  7. ind = np.random.choice(X_expanded.shape[0], batch_size)

  8. loss[i] = compute_loss(X_expanded, y, w)

  9. dw = compute_grad(X_expanded[ind, :], y[ind], w)

  10. w = w - eta*dw

下圖展示了當(dāng)batch size=4時(shí),決策面(decision surface)和交叉熵?fù)p失函數(shù)如何隨著不同batch的SGD發(fā)生變化。

實(shí)例:如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化

左:決策面;右:損失函數(shù)

用Momentum優(yōu)化SGD

Momentum是模擬物理里動(dòng)量的概念,如下圖所示,它能在相關(guān)方向加速SGD,抑制振蕩,從而加快收斂。從計(jì)算角度說,就是對(duì)上一步驟更新向量和當(dāng)前更新向量做加權(quán)平均,將其用于當(dāng)前計(jì)算。

實(shí)例:如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化

  1. eta =0.05# 學(xué)習(xí)率

  2. alpha =0.9# momentum

  3. nu = np.zeros_like(w)

  4. n_iter =100

  5. batch_size =4

  6. loss = np.zeros(n_iter)

  7. foriinrange(n_iter):

  8. ind = np.random.choice(X_expanded.shape[0], batch_size)

  9. loss[i] = compute_loss(X_expanded, y, w)

  10. dw = compute_grad(X_expanded[ind, :], y[ind], w)

  11. nu = alpha*nu + eta*dw

  12. w = w - nu

下圖展示了引入Momentum后,當(dāng)batch size=4時(shí)相應(yīng)決策面和交叉熵?fù)p失函數(shù)隨不同batch SGD+momentum發(fā)生的變化??梢钥闯?,損失函數(shù)下降速度明顯加快,更快收斂。

實(shí)例:如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化

左:決策面;右:損失函數(shù)

RMSprop

加快收斂速度后,之后我們要做的是調(diào)整超參數(shù)學(xué)習(xí)率,這里我們介紹Hinton老爺子的RMSprop。這是一種十分高效的算法,利用梯度的平方來調(diào)整學(xué)習(xí)率:

  1. eta =0.05# 學(xué)習(xí)率

  2. alpha =0.9# momentum

  3. G = np.zeros_like(w)

  4. eps =1e-8

  5. n_iter =100

  6. batch_size =4

  7. loss = np.zeros(n_iter)

  8. foriinrange(n_iter):

  9. ind = np.random.choice(X_expanded.shape[0], batch_size)

  10. loss[i] = compute_loss(X_expanded, y, w)

  11. dw = compute_grad(X_expanded[ind, :], y[ind], w)

  12. G = alpha*G + (1-alpha)*dw**2

  13. w = w - eta*dw / np.sqrt(G + eps)

下圖是使用了SGD + RMSProp后決策面和損失函數(shù)的變化情況,較之之前,函數(shù)下降更快,收斂也更快。

實(shí)例:如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • ML
    ML
    +關(guān)注

    關(guān)注

    0

    文章

    143

    瀏覽量

    34447
  • 線性分類器
    +關(guān)注

    關(guān)注

    0

    文章

    3

    瀏覽量

    1421

原文標(biāo)題:課后作業(yè)(一):如何建立一個(gè)線性分類器并進(jìn)行優(yōu)化

文章出處:【微信號(hào):jqr_AI,微信公眾號(hào):論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    常用連接分類有哪些

    常用連接分類多種多樣,每種類型都根據(jù)其特定的應(yīng)用場(chǎng)合和設(shè)計(jì)特點(diǎn)進(jìn)行劃分。以下是對(duì)常用連接個(gè)
    的頭像 發(fā)表于 09-10 10:32 ?177次閱讀

    新加坡服務(wù)延遲大嗎?如何進(jìn)行優(yōu)化

    新加坡服務(wù)的延遲通常在全國(guó)平均延遲111ms左右,其中移動(dòng)網(wǎng)絡(luò)約為90ms,聯(lián)通網(wǎng)絡(luò)106ms,電信網(wǎng)絡(luò)最低約為85ms。為了進(jìn)行優(yōu)化般可以采取使用CDN、
    的頭像 發(fā)表于 08-09 13:58 ?67次閱讀

    電壓比較線性還是非線性

    的輸出電壓與輸入電壓之間存在滯后或窗口效應(yīng)。電壓比較種將兩個(gè)電壓信號(hào)進(jìn)行比較并輸出個(gè)二進(jìn)
    的頭像 發(fā)表于 08-06 15:18 ?243次閱讀

    BP神經(jīng)網(wǎng)絡(luò)在語(yǔ)言特征信號(hào)分類中的應(yīng)用

    Network),即反向傳播神經(jīng)網(wǎng)絡(luò),作為種強(qiáng)大的多層前饋神經(jīng)網(wǎng)絡(luò),憑借其優(yōu)異的非線性映射能力和高效的學(xué)習(xí)機(jī)制,在語(yǔ)言特征信號(hào)分類中展現(xiàn)出了巨大的潛力。本文將從BP神經(jīng)網(wǎng)絡(luò)的基本原理、語(yǔ)言特征信號(hào)的提取與處理、BP神經(jīng)網(wǎng)絡(luò)在
    的頭像 發(fā)表于 07-10 15:44 ?192次閱讀

    請(qǐng)問MDF如何建立線性連接?

    個(gè)線性的應(yīng)用,可能需要上百個(gè)節(jié)點(diǎn)組成個(gè)
    發(fā)表于 06-28 06:40

    基于神經(jīng)網(wǎng)絡(luò)的呼吸音分類算法

    )×Y相乘,其中Xi是預(yù)測(cè)噪聲標(biāo)簽(對(duì)于噪聲幀,X=1),Y是幀。異常分類個(gè)稱為ARNN的堆疊RNN,它為一個(gè)樣本(所有幀)預(yù)測(cè)
    發(fā)表于 05-31 12:05

    連接兩個(gè)TC397 EVK并進(jìn)行SPI試驗(yàn)時(shí),無法測(cè)量主SCLKO波形,為什么?

    使用 AURIX TC397 示例代碼(SPI_CPU_1_KIT_TC397_TFT) ADS 版本:1.9.20 平臺(tái):kit_a2g_tc397_5v_tft 連接兩個(gè) TC397 EVK 并進(jìn)行 SPI 試驗(yàn)時(shí),無法測(cè)量主 SCLKO 波形。
    發(fā)表于 05-29 06:33

    FSLP建立個(gè)接口,如何降低ADC-DMA的速度?

    我正在為 FSLP(力感線性電位計(jì))建立個(gè)接口,以檢測(cè)用戶的觸摸滑動(dòng)。 我正在使用比較 ISR 來檢測(cè)用戶觸摸 FSLP 的情況,然后從
    發(fā)表于 03-06 06:31

    線性穩(wěn)壓分類介紹

    進(jìn)步分為固定輸出型和可變輸出型。 固定輸出型的線性穩(wěn)壓通常具有三個(gè)引腳:輸入(Input)、輸出(Output)和接地(GND)。這類穩(wěn)壓
    的頭像 發(fā)表于 02-25 15:00 ?593次閱讀
    <b class='flag-5'>線性</b>穩(wěn)壓<b class='flag-5'>器</b>的<b class='flag-5'>分類</b>介紹

    線性穩(wěn)壓分類及特點(diǎn)

    線性穩(wěn)壓是電源管理中的關(guān)鍵組件,它們通過連續(xù)調(diào)整其內(nèi)部通過元件(如晶體管)的電流來輸出恒定電壓。線性穩(wěn)壓可以按照不同的標(biāo)準(zhǔn)進(jìn)行
    的頭像 發(fā)表于 02-04 10:37 ?579次閱讀

    verilog的135個(gè)經(jīng)典實(shí)例

    verilog的135個(gè)經(jīng)典實(shí)例
    發(fā)表于 02-02 10:17 ?14次下載

    使用STM32 HAL庫(kù)進(jìn)行GPIO控制的實(shí)例

    在基于STM32微控制的嵌入式系統(tǒng)開發(fā)中,GPIO(GeneralPurposeInput/Output)控制是其中最基本、最常見的操作之。通過使用STM32的HAL庫(kù),可以輕松地對(duì)GPIO進(jìn)行配置和控制。本文將演示如何使用
    的頭像 發(fā)表于 12-21 15:22 ?2414次閱讀

    如何將變頻進(jìn)行分類?了解變頻分類,是學(xué)會(huì)應(yīng)用變頻個(gè)重要的基本過程

    和節(jié)能效果顯著、應(yīng)用范圍廣泛及其它許多優(yōu)點(diǎn),是當(dāng)今節(jié)能減排、改善工藝流程、提高產(chǎn)品性能、推動(dòng)技術(shù)進(jìn)步的種重要手段,在冶金、市政、機(jī)械、礦山、紡織等等各行各業(yè)得到了廣泛的應(yīng)用。? 了解變頻分類,是學(xué)會(huì)應(yīng)用變
    的頭像 發(fā)表于 12-14 16:37 ?570次閱讀
    如何將變頻<b class='flag-5'>器</b><b class='flag-5'>進(jìn)行</b><b class='flag-5'>分類</b>?了解變頻<b class='flag-5'>器</b>的<b class='flag-5'>分類</b>,是學(xué)會(huì)應(yīng)用變頻<b class='flag-5'>器</b>的<b class='flag-5'>一</b><b class='flag-5'>個(gè)</b>重要的基本過程

    如何利用高斯過程回歸模型建立燃料電池電堆功率預(yù)測(cè)模型?

    對(duì)車輛輔助裝置的控件進(jìn)行優(yōu)化設(shè)計(jì)時(shí),需要建立個(gè)燃料電池電堆功率預(yù)測(cè)模型,而該模型的建立需要考慮
    的頭像 發(fā)表于 11-02 15:34 ?907次閱讀
    如何利用高斯過程回歸模型<b class='flag-5'>建立</b>燃料電池電堆功率預(yù)測(cè)模型?

    TCP連接的建立與中止

    常重要的 。 TCP 連接的建立可以簡(jiǎn)單地稱為三次握手,而連接的中止則可以稱為四次揮手。 建立連接 TCP/IP 協(xié)議中, TCP 協(xié)議提供可靠的連接服務(wù),采用三次握手建立
    的頭像 發(fā)表于 10-08 16:52 ?631次閱讀