0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

關(guān)于各種集成學(xué)習(xí)的方法

Dbwd_Imgtec ? 來源:DeepHub IMBA ? 作者:DeepHub IMBA ? 2022-10-08 14:53 ? 次閱讀

機器學(xué)習(xí)人工智能的一個分支領(lǐng)域,致力于構(gòu)建自動學(xué)習(xí)和自適應(yīng)的系統(tǒng),它利用統(tǒng)計模型來可視化、分析和預(yù)測數(shù)據(jù)。一個通用的機器學(xué)習(xí)模型包括一個數(shù)據(jù)集(用于訓(xùn)練模型)和一個算法(從數(shù)據(jù)學(xué)習(xí))。但是有些模型的準確性通常很低產(chǎn)生的結(jié)果也不太準確,克服這個問題的最簡單的解決方案之一是在機器學(xué)習(xí)模型上使用集成學(xué)習(xí)。

d451a2f2-46b4-11ed-96c9-dac502259ad0.png

集成學(xué)習(xí)是一種元方法,通過組合多個機器學(xué)習(xí)模型來產(chǎn)生一個優(yōu)化的模型,從而提高模型的性能。集成學(xué)習(xí)可以很容易地減少過擬合,避免模型在訓(xùn)練時表現(xiàn)更好,而在測試時不能產(chǎn)生良好的結(jié)果。

總結(jié)起來,集成學(xué)習(xí)有以下的優(yōu)點:

增加模型的性能

減少過擬合

降低方差

與單個模型相比,提供更高的預(yù)測精度。

可以處理線性和非線性數(shù)據(jù)。

集成技術(shù)可以用來解決回歸和分類問題

下面我們將介紹各種集成學(xué)習(xí)的方法:

Voting

Voting是一種集成學(xué)習(xí),它將來自多個機器學(xué)習(xí)模型的預(yù)測結(jié)合起來產(chǎn)生結(jié)果。在整個數(shù)據(jù)集上訓(xùn)練多個基礎(chǔ)模型來進行預(yù)測。每個模型預(yù)測被認為是一個“投票”。得到多數(shù)選票的預(yù)測將被選為最終預(yù)測。

d4a37924-46b4-11ed-96c9-dac502259ad0.png

有兩種類型的投票用于匯總基礎(chǔ)預(yù)測-硬投票和軟投票。

d500c2f0-46b4-11ed-96c9-dac502259ad0.png

硬投票選擇投票數(shù)最高的預(yù)測作為最終預(yù)測,而軟投票將每個模型中每個類的概率結(jié)合起來,選擇概率最高的類作為最終預(yù)測。

在回歸問題中,它的工作方式有些不同,因為我們不是尋找頻率最高的類,而是采用每個模型的預(yù)測并計算它們的平均值,從而得出最終的預(yù)測。


 from sklearn.ensemble import VotingClassifier
 
 ## Base Models
 from sklearn.tree import DecisionTreeClassifier
 from sklearn.linear_model import LogisticRegression
 from sklearn.naive_bayes import GaussianNB
 from sklearn.neighbors import KNeighborsClassifier
 from sklearn.svm import SVC
 
 
 ensemble_voting = VotingClassifier(
    estimators = [('dtc',DecisionTreeClassifier(random_state=42)),
                  ('lr', LogisticRegression()),
                  ('gnb', GaussianNB()),
                  ('knn',KNeighborsClassifier()),
                  ('svc',SVC())],
    voting='hard')
 ensemble_voting.fit(X_train,y_train)

Bagging

Bagging是采用幾個弱機器學(xué)習(xí)模型,并將它們的預(yù)測聚合在一起,以產(chǎn)生最佳的預(yù)測。它基于bootstrap aggregation,bootstrap 是一種使用替換方法從集合中抽取隨機樣本的抽樣技術(shù)。aggregation則是利用將幾個預(yù)測結(jié)合起來產(chǎn)生最終預(yù)測的過程。

隨機森林是利用Bagging的最著名和最常用的模型之一。它由大量的決策樹組成,這些決策樹作為一個整體運行。它使用Bagging和特征隨機性的概念來創(chuàng)建每棵獨立的樹。每棵決策樹都是從數(shù)據(jù)中隨機抽取樣本進行訓(xùn)練。在隨機森林中,我們最終得到的樹不僅接受不同數(shù)據(jù)集的訓(xùn)練,而且使用不同的特征來預(yù)測結(jié)果。

d525b416-46b4-11ed-96c9-dac502259ad0.png

Bagging通常有兩種類型——決策樹的集合(稱為隨機森林)和決策樹以外的模型的集合。兩者的工作原理相似,都使用聚合方法生成最終預(yù)測,唯一的區(qū)別是它們所基于的模型。在sklearn中,我們有一個BaggingClassifier類,用于創(chuàng)建除決策樹以外的模型。

 ## Bagging Ensemble of Same Classifiers (Decision Trees)
 from sklearn.ensemble import RandomForestClassifier  
 classifier= RandomForestClassifier(n_estimators= 10, criterion="entropy")  
 classifier.fit(x_train, y_train)
 
 
 ## Bagging Ensemble of Different Classifiers
 from sklearn.ensemble import BaggingClassifier
 from sklearn.svm import SVC
 clf = BaggingClassifier(base_estimator=SVC(),
                          n_estimators=10, random_state=0)
 clf.fit(X_train,y_train)

Boosting

增強集成方法通過重視先前模型的錯誤,將弱學(xué)習(xí)者轉(zhuǎn)化為強學(xué)習(xí)者。Boosting以順序的方式實現(xiàn)同構(gòu)ML算法,每個模型都試圖通過減少前一個模型的誤差來提高整個過程的穩(wěn)定性。

d5493b3e-46b4-11ed-96c9-dac502259ad0.png

在訓(xùn)練n+1模型時,數(shù)據(jù)集中的每個數(shù)據(jù)點都被賦予了相等的權(quán)重,這樣被模型n錯誤分類的樣本就能被賦予更多的權(quán)重(重要性)。誤差從n個學(xué)習(xí)者傳遞給n+1個學(xué)習(xí)者,每個學(xué)習(xí)者都試圖減少誤差。

ADA Boost是使用Boost生成預(yù)測的最基本模型之一。ADA boost創(chuàng)建一個決策樹樁森林(一個樹樁是一個只有一個節(jié)點和兩個葉子的決策樹),不像隨機森林創(chuàng)建整個決策樹森林。它給分類錯誤的樣本分配更高的權(quán)重,并繼續(xù)訓(xùn)練模型,直到得到較低的錯誤率。


 from sklearn.tree import DecisionTreeClassifier
 from sklearn.ensemble import AdaBoostClassifier
 
 dt = DecisionTreeClassifier(max_depth=2, random_state=0)
 adc = AdaBoostClassifier(base_estimator=dt, n_estimators=7, learning_rate=0.1, random_state=0)
 
 adc.fit(x_train, y_train)

Stacking

Stacking也被稱為疊加泛化,是David H. Wolpert在1992年提出的集成技術(shù)的一種形式,目的是通過使用不同的泛化器來減少錯誤。

d56210b4-46b4-11ed-96c9-dac502259ad0.png

疊加模型利用來自多個基礎(chǔ)模型的預(yù)測來構(gòu)建元模型,用于生成最終的預(yù)測。堆疊模型由多層組成,其中每一層由幾個機器學(xué)習(xí)模型組成,這些模型的預(yù)測用于訓(xùn)練下一層模型。

在疊加過程中,將數(shù)據(jù)分為訓(xùn)練集和測試集兩部分。訓(xùn)練集會被進一步劃分為k-fold?;A(chǔ)模型在k-1部分進行訓(xùn)練,在k??部分進行預(yù)測。這個過程被反復(fù)迭代,直到每一折都被預(yù)測出來。然后將基本模型擬合到整個數(shù)據(jù)集,并計算性能。這個過程也適用于其他基本模型。

來自訓(xùn)練集的預(yù)測被用作構(gòu)建第二層或元模型的特征。這個第二級模型用于預(yù)測測試集。


 from sklearn.neighbors import KNeighborsClassifier
 from sklearn.tree import DecisionTreeClassifier
 from sklearn.svm import SVC
 from sklearn.linear_model import LogisticRegression
 from sklearn.ensemble import StackingClassifier
 
 base_learners = [
                  ('l1', KNeighborsClassifier()),
                  ('l2', DecisionTreeClassifier()),
                  ('l3',SVC(gamma=2, C=1)))
                ]
 model = StackingClassifier(estimators=base_learners, final_estimator=LogisticRegression(),cv=5)
 model.fit(X_train, y_train)

Blending

Blending是從Stacking派生出來另一種形式的集成學(xué)習(xí)技術(shù),兩者之間的唯一區(qū)別是它使用來自一個訓(xùn)練集的保留(驗證)集來進行預(yù)測。簡單地說,預(yù)測只針對保留的數(shù)據(jù)集。保留的數(shù)據(jù)集和預(yù)測用于構(gòu)建第二級模型。

d5cf07b4-46b4-11ed-96c9-dac502259ad0.png


 import numpy as np
 from sklearn.datasets import make_classification
 from sklearn.model_selection import train_test_split
 from sklearn.metrics import accuracy_score
 
 ## Base Models
 from sklearn.neighbors import KNeighborsClassifier
 from sklearn.tree import DecisionTreeClassifier
 from sklearn.svm import SVC
 
 ## Meta Learner
 from sklearn.linear_model import LogisticRegression
 
 ## Creating Sample Data
 X,y = make_classification(n_samples=10000, n_features=20, n_informative=15, n_redundant=5, random_state=42)
 
 ## Training a Individual Logistic Regression Model
 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=1)
 logrec = LogisticRegression()
 logrec.fit(X_train,y_train)
 pred = logrec.predict(X_test)
 score = accuracy_score(y_test, pred)
 print('Base Model Accuracy: %.3f' % (score*100))
 
 ## Defining Base Models
 def base_models():
  models = list()
  models.append(('knn', KNeighborsClassifier()))
  models.append(('dt', DecisionTreeClassifier()))
  models.append(('svm', SVC(probability=True)))
  return models
 
 ## Fitting Ensemble Blending Model
 ## Step 1:Splitting Data Into Train, Holdout(Validation) and Test Sets
 X_train_full, X_test, y_train_full, y_test = train_test_split(X, y, test_size=0.3, random_state=1)
 X_train, X_val, y_train, y_val = train_test_split(X_train_full, y_train_full, test_size=0.33, random_state=1)
 
 ## Step 2: train base models on train set and make predictions on validation set
 models = base_models()
 meta_X = list()
 for name, model in models:
    # training base models on train set
 model.fit(X_train, y_train)
 # predict on hold out set
 yhat = model.predict_proba(X_val)
    # storing predictions
 meta_X.append(yhat)
 # horizontal stacking predictions
 meta_X = np.hstack(meta_X)
 
 ## Step 3: Creating Blending Meta Learner
 blender = LogisticRegression()
 ## training on base model predictions
 blender.fit(meta_X, y_val)
 
 ## Step 4: Making predictions using blending meta learner
 meta_X = list()
 for name, model in models:
  yhat = model.predict_proba(X_test)
  meta_X.append(yhat)
 meta_X = np.hstack(meta_X)
 y_pred = blender.predict(meta_X)
 
 # Evaluate predictions
 score = accuracy_score(y_test, y_pred)
 print('Blending Accuracy: %.3f' % (score*100))
 ---------------------------------
 Base Model Accuracy: 82.367
 Blending Accuracy: 96.733

總結(jié)

在閱讀完本文之后,您可能想知道是否有選擇一個更好的模型最好的方法或者如果需要的話,使用哪種集成技術(shù)呢?

在這個問題時,我們總是建議從一個簡單的個體模型開始,然后使用不同的建模技術(shù)(如集成學(xué)習(xí))對其進行測試。在某些情況下,單個模型可能比集成模型表現(xiàn)得更好,甚至好很多。

需要說明并且需要注意的一點是:集成學(xué)習(xí)絕不應(yīng)該是第一選擇,而應(yīng)該是最后一個選擇。原因很簡單:訓(xùn)練一個集成模型將花費很多時間,并且需要大量的處理能力。

回到我們的問題,集成模型旨在通過組合同一類別的幾個基本模型來提高模型的可預(yù)測性。每種集成技術(shù)都是最好的,有助于提高模型性能。

如果你正在尋找一種簡單且易于實現(xiàn)的集成方法,那么應(yīng)該使用Voting。如果你的數(shù)據(jù)有很高的方差,那么你應(yīng)該嘗試Bagging。如果訓(xùn)練的基礎(chǔ)模型在模型預(yù)測中有很高的偏差,那么可以嘗試不同的Boosting技術(shù)來提高準確性。如果有多個基礎(chǔ)模型在數(shù)據(jù)上表現(xiàn)都很好好,并且不知道選擇哪一個作為最終模型,那么可以使用Stacking 或Blending的方法。當然具體哪種方法表現(xiàn)得最好還是要取決于數(shù)據(jù)和特征分布。

最后集成學(xué)習(xí)技術(shù)是提高模型精度和性能的強大工具,它們很容易減少數(shù)據(jù)過擬合和欠擬合的機會,尤其在參加比賽時這是提分的關(guān)鍵。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3038

    瀏覽量

    48398
  • 集成學(xué)習(xí)
    +關(guān)注

    關(guān)注

    0

    文章

    10

    瀏覽量

    7309
  • 機器學(xué)習(xí)
    +關(guān)注

    關(guān)注

    66

    文章

    8308

    瀏覽量

    131923
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1197

    瀏覽量

    24554

原文標題:機器學(xué)習(xí)模型的集成方法總結(jié):Bagging, Boosting, Stacking, Voting, Blending

文章出處:【微信號:Imgtec,微信公眾號:Imagination Tech】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    學(xué)習(xí)各種電流源電路及差分放大電路的分析方法

    學(xué)習(xí)各種電流源電路及差分放大電路的分析方法。
    發(fā)表于 02-28 10:43 ?3705次閱讀
    <b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>各種</b>電流源電路及差分放大電路的分析<b class='flag-5'>方法</b>

    關(guān)于電路中各種接地的方法:數(shù)字地、模擬地、信號地等等

    本帖最后由 gk320830 于 2015-3-5 00:11 編輯 關(guān)于電路中各種接地的方法:數(shù)字地、模擬地、信號地等等
    發(fā)表于 08-20 14:27

    FPGA技術(shù)的學(xué)習(xí)方法

    。那么究竟如何才能高效學(xué)習(xí)好FPGA技術(shù)呢?本期邀請到的FPGA專家梅雪松,將為大家解答FPGA有效學(xué)習(xí)方法。專家觀點:學(xué)習(xí)FPGA技術(shù),或者不僅局限于FPGA,學(xué)習(xí)任何一個新技術(shù)只要
    發(fā)表于 01-11 13:58

    如何選擇機器學(xué)習(xí)各種方法

    每當提到機器學(xué)習(xí),大家總是被其中的各種各樣的算法和方法搞暈,覺得無從下手。確實,機器學(xué)習(xí)各種套路確實不少,但是如果掌握了正確的路徑和
    發(fā)表于 03-07 20:18

    集成學(xué)習(xí)和Boosting提升方法

    李航《統(tǒng)計學(xué)習(xí)方法》——第八章Boosting提升方法【補充集成學(xué)習(xí)】+習(xí)題答案
    發(fā)表于 06-05 09:49

    關(guān)于STM32的學(xué)習(xí)方法

    分享一下自己的學(xué)習(xí)思路,是關(guān)于我的STM32的學(xué)習(xí)方法,以STM32硬件編程思想為例第一點:編程首先應(yīng)該清楚的是“需要什么”。需求包括①上級(自己)開出的要求、條件。②硬件應(yīng)實現(xiàn)的功能。③是否符合
    發(fā)表于 08-11 06:55

    集成學(xué)習(xí)的多分類器動態(tài)組合方法

    為了提高數(shù)據(jù)的分類性能,提出一種集成學(xué)習(xí)的多分類器動態(tài)組合方法(DEA)。該方法在多個UCI標準數(shù)據(jù)集上進行測試,并與文中使用的基于Adaboost算法訓(xùn)練出的各個成員分類器的分類
    發(fā)表于 04-08 08:58 ?19次下載

    關(guān)于各種pon的資料

    關(guān)于各種pon的資料
    發(fā)表于 07-30 15:43 ?0次下載

    關(guān)于電路中各種接地的方法:數(shù)字地、模擬地、信號地等等

    關(guān)于電路中各種接地的方法:數(shù)字地、模擬地、信號地等等
    發(fā)表于 01-13 14:19 ?0次下載

    關(guān)于電路中各種接地的方法介紹

    基于設(shè)計經(jīng)驗總結(jié)關(guān)于電路中各種接地的方法:數(shù)字地、模擬地、信號地
    發(fā)表于 07-20 17:21 ?0次下載

    基于集成多標記學(xué)習(xí)的蛋白質(zhì)多亞細胞定位預(yù)測方法

    針對多標記學(xué)習(xí)集成學(xué)習(xí)在解決蛋白質(zhì)多亞細胞定位預(yù)測問題上應(yīng)用還不成熟的狀況,研究基于集成多標記學(xué)習(xí)的蛋白質(zhì)多亞細胞定位預(yù)測
    發(fā)表于 12-13 15:49 ?0次下載
    基于<b class='flag-5'>集成</b>多標記<b class='flag-5'>學(xué)習(xí)</b>的蛋白質(zhì)多亞細胞定位預(yù)測<b class='flag-5'>方法</b>

    基于概率校準的集成學(xué)習(xí)方法

    針對原有集成學(xué)習(xí)多樣性不足而導(dǎo)致的集成效果不夠顯著的問題,提出一種基于概率校準的集成學(xué)習(xí)方法以及兩種降低多重共線性影響的
    發(fā)表于 12-22 11:02 ?0次下載
    基于概率校準的<b class='flag-5'>集成</b><b class='flag-5'>學(xué)習(xí)方法</b>

    Ubuntu系統(tǒng)Linux學(xué)習(xí)環(huán)境的配置方法

    一步步配置的各種環(huán)境就這樣離我而去了。 無奈必須重新安裝各種環(huán)境,便索性開一blog記錄自己學(xué)習(xí)Linux的心路歷程。 第一篇blog就記錄下關(guān)于Ubuntu下Linux
    發(fā)表于 11-21 14:45 ?1201次閱讀

    深度討論集成學(xué)習(xí)方法,解決AI實踐難題

    集成學(xué)習(xí)方法是一類先進的機器學(xué)習(xí)方法,這類方法訓(xùn)練多個學(xué)習(xí)器并將它們結(jié)合起來解決一個問題,在實踐中獲得了巨大成功,并成為機器
    發(fā)表于 08-16 11:40 ?722次閱讀
    深度討論<b class='flag-5'>集成</b><b class='flag-5'>學(xué)習(xí)方法</b>,解決AI實踐難題

    集成模型的原理及創(chuàng)建集成模型的方法

    集成學(xué)習(xí)是功能強大的機器學(xué)習(xí)技術(shù)之一。集成學(xué)習(xí)通過使用多種機器學(xué)習(xí)模型來提高預(yù)測結(jié)果的可靠性和準
    的頭像 發(fā)表于 11-11 11:13 ?5222次閱讀