0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Python中進(jìn)行特征重要性分析的9個(gè)常用方法

科技綠洲 ? 來源:Deephub Imba ? 作者:Deephub Imba ? 2023-10-16 11:09 ? 次閱讀

如果有一個(gè)包含數(shù)十個(gè)甚至數(shù)百個(gè)特征的數(shù)據(jù)集,每個(gè)特征都可能對(duì)你的機(jī)器學(xué)習(xí)模型的性能有所貢獻(xiàn)。但是并不是所有的特征都是一樣的。有些可能是冗余的或不相關(guān)的,這會(huì)增加建模的復(fù)雜性并可能導(dǎo)致過擬合。特征重要性分析可以識(shí)別并關(guān)注最具信息量的特征,從而帶來以下幾個(gè)優(yōu)勢(shì):

  • 改進(jìn)的模型性能
  • 減少過度擬合
  • 更快的訓(xùn)練和推理
  • 增強(qiáng)的可解釋性

下面我們深入了解在Python中的一些特性重要性分析的方法。

特征重要性分析方法

1、排列重要性 PermutationImportance

該方法會(huì)隨機(jī)排列每個(gè)特征的值,然后監(jiān)控模型性能下降的程度。如果獲得了更大的下降意味著特征更重要。

from sklearn.datasets import load_breast_cancer
from sklearn.ensemble import RandomForestClassifier
from sklearn.inspection import permutation_importance
from sklearn.model_selection import train_test_split
import matplotlib.pyplot as plt
 
cancer = load_breast_cancer()
 
X_train, X_test, y_train, y_test = train_test_split(cancer.data, cancer.target, random_state=1)
 
rf = RandomForestClassifier(n_estimators=100, random_state=1)
rf.fit(X_train, y_train)
 
baseline = rf.score(X_test, y_test)
result = permutation_importance(rf, X_test, y_test, n_repeats=10, random_state=1, scoring='accuracy')
 
importances = result.importances_mean
 
# Visualize permutation importances
plt.bar(range(len(importances)), importances)
plt.xlabel('Feature Index')
plt.ylabel('Permutation Importance')
plt.show()

圖片

2、內(nèi)置特征重要性(coef_或feature_importances_)

一些模型,如線性回歸和隨機(jī)森林,可以直接輸出特征重要性分?jǐn)?shù)。這些顯示了每個(gè)特征對(duì)最終預(yù)測的貢獻(xiàn)。

from sklearn.datasets import load_breast_cancer
from sklearn.ensemble import RandomForestClassifier
 
X, y = load_breast_cancer(return_X_y=True)
 
rf = RandomForestClassifier(n_estimators=100, random_state=1)
rf.fit(X, y)
 
importances = rf.feature_importances_
 
# Plot importances
plt.bar(range(X.shape[1]), importances)
plt.xlabel('Feature Index')
plt.ylabel('Feature Importance')
plt.show()

3、Leave-one-out

迭代地每次刪除一個(gè)特征并評(píng)估準(zhǔn)確性。

from sklearn.datasets import load_breast_cancer
 from sklearn.model_selection import train_test_split
 from sklearn.ensemble import RandomForestClassifier
 from sklearn.metrics import accuracy_score
 import matplotlib.pyplot as plt
 import numpy as np
 
 # Load sample data
 X, y = load_breast_cancer(return_X_y=True)
 
 # Split data into train and test sets
 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=1)
 
 # Train a random forest model
 rf = RandomForestClassifier(n_estimators=100, random_state=1)
 rf.fit(X_train, y_train)
 
 # Get baseline accuracy on test data
 base_acc = accuracy_score(y_test, rf.predict(X_test))
 
 # Initialize empty list to store importances
 importances = []
 
 # Iterate over all columns and remove one at a time
 for i in range(X_train.shape[1]):
    X_temp = np.delete(X_train, i, axis=1)
    rf.fit(X_temp, y_train)
    acc = accuracy_score(y_test, rf.predict(np.delete(X_test, i, axis=1)))
    importances.append(base_acc - acc)
     
 # Plot importance scores    
 plt.bar(range(len(importances)), importances)
 plt.show()

圖片

4、相關(guān)性分析

計(jì)算各特征與目標(biāo)變量之間的相關(guān)性。相關(guān)性越高的特征越重要。

import pandas as pd
from sklearn.datasets import load_breast_cancer
 
X, y = load_breast_cancer(return_X_y=True)
df = pd.DataFrame(X, columns=range(30))
df['y'] = y
 
correlations = df.corrwith(df.y).abs()
correlations.sort_values(ascending=False, inplace=True)
 
correlations.plot.bar()

圖片

5、遞歸特征消除 Recursive Feature Elimination

遞歸地刪除特征并查看它如何影響模型性能。刪除時(shí)會(huì)導(dǎo)致更大下降的特征更重要。

from sklearn.ensemble import RandomForestClassifier
 from sklearn.feature_selection import RFE
 import pandas as pd
 from sklearn.datasets import load_breast_cancer
 import matplotlib.pyplot as plt
 
 X, y = load_breast_cancer(return_X_y=True)
 df = pd.DataFrame(X, columns=range(30))
 df['y'] = y
 
 rf = RandomForestClassifier()
 
 rfe = RFE(rf, n_features_to_select=10)
 rfe.fit(X, y)
 
 print(rfe.ranking_)
輸出為[6 4 11 12 7 11 18 21 8 16 10 3 15 14 19 17 20 13 11 11 12 9 11 5 11]

6、XGBoost特性重要性

計(jì)算一個(gè)特性用于跨所有樹拆分?jǐn)?shù)據(jù)的次數(shù)。更多的分裂意味著更重要。

import xgboost as xgb
 import pandas as pd
 from sklearn.datasets import load_breast_cancer
 import matplotlib.pyplot as plt
 
 X, y = load_breast_cancer(return_X_y=True)
 df = pd.DataFrame(X, columns=range(30))
 df['y'] = y
 
 model = xgb.XGBClassifier()
 model.fit(X, y)
 
 importances = model.feature_importances_
 importances = pd.Series(importances, index=range(X.shape[1]))
 importances.plot.bar()

圖片

7、主成分分析 PCA

對(duì)特征進(jìn)行主成分分析,并查看每個(gè)主成分的解釋方差比。在前幾個(gè)組件上具有較高負(fù)載的特性更為重要。

from sklearn.decomposition import PCA
 import pandas as pd
 from sklearn.datasets import load_breast_cancer
 import matplotlib.pyplot as plt
 
 X, y = load_breast_cancer(return_X_y=True)
 df = pd.DataFrame(X, columns=range(30))
 df['y'] = y
 
 pca = PCA()
 pca.fit(X)
 
 plt.bar(range(pca.n_components_), pca.explained_variance_ratio_)
 plt.xlabel('PCA components')
 plt.ylabel('Explained Variance')

圖片

8、方差分析 ANOVA

使用f_classif()獲得每個(gè)特征的方差分析f值。f值越高,表明特征與目標(biāo)的相關(guān)性越強(qiáng)。

from sklearn.feature_selection import f_classif
 import pandas as pd
 from sklearn.datasets import load_breast_cancer
 import matplotlib.pyplot as plt
 
 X, y = load_breast_cancer(return_X_y=True)
 df = pd.DataFrame(X, columns=range(30))
 df['y'] = y
 
 fval = f_classif(X, y)
 fval = pd.Series(fval[0], index=range(X.shape[1]))
 fval.plot.bar()

9、卡方檢驗(yàn)

使用chi2()獲得每個(gè)特征的卡方統(tǒng)計(jì)信息。得分越高的特征越有可能獨(dú)立于目標(biāo)。

from sklearn.feature_selection import chi2
 import pandas as pd
 from sklearn.datasets import load_breast_cancer
 import matplotlib.pyplot as plt
 
 X, y = load_breast_cancer(return_X_y=True)
 df = pd.DataFrame(X, columns=range(30))
 df['y'] = y
 
 chi_scores = chi2(X, y)
 chi_scores = pd.Series(chi_scores[0], index=range(X.shape[1]))
 chi_scores.plot.bar()

圖片

為什么不同的方法會(huì)檢測到不同的特征?

不同的特征重要性方法有時(shí)可以識(shí)別出不同的特征是最重要的,這是因?yàn)椋?/p>

1、他們用不同的方式衡量重要性:

有的使用不同特特征進(jìn)行預(yù)測,監(jiān)控精度下降

像XGBOOST或者回國模型使用內(nèi)置重要性來進(jìn)行特征的重要性排列

而PCA著眼于方差解釋

2、不同模型有不同模型的方法:

線性模型傾向于線性關(guān)系、樹模型傾向于接近根的特征

3、交互作用:

有的方法可以獲取特征之間的相互左右,而有一些則不行,這就會(huì)導(dǎo)致結(jié)果的差異

4、不穩(wěn)定:

使用不同的數(shù)據(jù)子集,重要性值可能在同一方法的不同運(yùn)行中有所不同,這是因?yàn)閿?shù)據(jù)差異決定的

5、Hyperparameters:

通過調(diào)整超參數(shù),如PCA組件或樹深度,也會(huì)影響結(jié)果

所以不同的假設(shè)、偏差、數(shù)據(jù)處理和方法的可變性意味著它們并不總是在最重要的特征上保持一致。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3032

    瀏覽量

    48351
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8306

    瀏覽量

    131841
  • python
    +關(guān)注

    關(guān)注

    53

    文章

    4753

    瀏覽量

    84073
  • 數(shù)據(jù)集
    +關(guān)注

    關(guān)注

    4

    文章

    1197

    瀏覽量

    24536
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    失效分析重要性

    應(yīng)用(鐳射光束誘發(fā)阻抗值變化測試):OBIRCH常用于芯片內(nèi)部高阻抗及低阻抗分析,線路漏電路徑分析。利用OBIRCH方法,可以有效地對(duì)電路中缺陷定位,如線條中的空洞、通孔下的空洞。通孔
    發(fā)表于 05-04 15:39

    Syncer模塊的重要性是什么?

    我在我的項(xiàng)目中使用25G以太網(wǎng)IP。通過打開此IP的示例設(shè)計(jì),我們可以看到許多SYNCER模塊,一個(gè)FSM模塊和一個(gè)流量生成器模塊。我想問一下這些Syncer模塊的重要性是什么,我是否需要在我的最終設(shè)計(jì)中使用所有syncer模塊
    發(fā)表于 05-18 09:25

    代碼規(guī)范的重要性是什么

    論代碼規(guī)范的重要性
    發(fā)表于 05-19 13:07

    使用ODDR原語的重要性是什么?

    你好我將virtex5 LX50與具有應(yīng)根據(jù)standardEIA / TIA-644 LVDS規(guī)范終止的輸出數(shù)據(jù)的設(shè)備連接起來我在用著IBUFDS用于將輸入LVDS轉(zhuǎn)換為LVTTL,OBUFDS用于輸出信號(hào)和時(shí)鐘這是這樣做的正確方法為此目的使用ODDR原語的重要性是什么
    發(fā)表于 06-17 14:59

    傳感器波形分析在汽車故障診斷中的重要性

    傳感器波形分析在汽車故障診斷中的重要性
    發(fā)表于 05-12 06:27

    時(shí)鐘系統(tǒng)的重要性

    時(shí)鐘系統(tǒng)就是CPU的脈搏,像人的心跳一樣,重要性不言而喻。由于STM32本身十分復(fù)雜,外設(shè)非常多,但并不是所有的外設(shè)都需要系統(tǒng)時(shí)鐘那么高的頻率,比如看門狗以及RTC只需要幾十k的時(shí)鐘即可。并且
    發(fā)表于 08-20 07:59

    時(shí)鐘服務(wù)器的重要性是什么?

    時(shí)鐘服務(wù)器的重要性是什么?
    發(fā)表于 11-08 08:31

    UPS的重要性

    中心機(jī)房的UPS太重要了,前不久就出現(xiàn)過停電壞了一個(gè)磁盤陳列硬盤的事故,一個(gè)2T的硬盤壞了,還好有一個(gè)備用的硬盤使用,否則磁盤陳列里的資料就岌岌可危了。服務(wù)器多了,UPS的
    發(fā)表于 11-16 09:09

    arm匯編的重要性是什么?

    arm匯編的重要性是什么?
    發(fā)表于 11-30 08:03

    討論紋理分析在圖像分類中的重要性及其在深度學(xué)習(xí)中使用紋理分析

    紋理就能被更準(zhǔn)確地捕捉和分類?! ≡诨诩y理的分類任務(wù)重,紋理分析對(duì)于深度學(xué)習(xí)的重要性  由于紋理基于局部模式,而傳統(tǒng)的深度學(xué)習(xí)方法強(qiáng)調(diào)復(fù)雜的特征,對(duì)紋理分類沒有幫助,因此,傳統(tǒng)的CN
    發(fā)表于 10-26 16:57

    Python語言在AI、大數(shù)據(jù)方面的重要性

    Python語言在AI、大數(shù)據(jù)方面的重要性
    發(fā)表于 09-02 16:20 ?25次下載

    RFE遞歸特征消除特征排序

    本文主要從股市數(shù)據(jù)變量的特征分布及特征重要性個(gè)角度對(duì)數(shù)據(jù)進(jìn)行分析。
    的頭像 發(fā)表于 03-16 17:26 ?5883次閱讀

    射頻芯片測試的重要性方法

    顯得尤為重要。下面將探討射頻芯片測試的重要性以及常用的測試方法。 首先,了解射頻芯片測試的重要性是必要的。射頻芯片的設(shè)計(jì)和制造中,可能會(huì)出現(xiàn)
    的頭像 發(fā)表于 06-29 10:01 ?1594次閱讀

    Python如何進(jìn)行特征重要性分析

    特征重要性分析用于了解每個(gè)特征(變量或輸入)對(duì)于做出預(yù)測的有用或價(jià)值。目標(biāo)是確定對(duì)模型輸出影響最大的最
    發(fā)表于 10-13 12:32 ?315次閱讀
    <b class='flag-5'>Python</b>如何<b class='flag-5'>進(jìn)行</b><b class='flag-5'>特征</b><b class='flag-5'>重要性</b><b class='flag-5'>分析</b>

    露天礦邊坡監(jiān)測的重要性方法

    露天礦邊坡監(jiān)測的重要性方法
    的頭像 發(fā)表于 05-28 16:24 ?261次閱讀