0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機器學(xué)習(xí)中需要了解的5種采樣方法

智能感知與物聯(lián)網(wǎng)技術(shù)研究所 ? 來源:通信信號處理研究所 ? 2020-08-10 15:36 ? 次閱讀

采樣問題是數(shù)據(jù)科學(xué)中的常見問題,對此,WalmartLabs 的數(shù)據(jù)科學(xué)家 Rahul Agarwal 分享了數(shù)據(jù)科學(xué)家需要了解的 5 種采樣方法,編譯整理如下。 數(shù)據(jù)科學(xué)實際上是就是研究算法。 我每天都在努力學(xué)習(xí)許多算法,所以我想列出一些最常見和最常用的算法。 本文介紹了在處理數(shù)據(jù)時可以使用的一些最常見的采樣技術(shù)。 簡單隨機抽樣假設(shè)您要選擇一個群體的子集,其中該子集的每個成員被選擇的概率都相等。 下面我們從一個數(shù)據(jù)集中選擇 100 個采樣點。

sample_df = df.sample(100)

分層采樣

假設(shè)我們需要估計選舉中每個候選人的平均票數(shù)?,F(xiàn)假設(shè)該國有 3 個城鎮(zhèn): A 鎮(zhèn)有 100 萬工人, B 鎮(zhèn)有 200 萬工人,以及 C 鎮(zhèn)有 300 萬退休人員。 我們可以選擇在整個人口中隨機抽取一個 60 大小的樣本,但在這些城鎮(zhèn)中,隨機樣本可能不太平衡,因此會產(chǎn)生偏差,導(dǎo)致估計誤差很大。 相反,如果我們選擇從 A、B 和 C 鎮(zhèn)分別抽取 10、20 和 30 個隨機樣本,那么我們可以在總樣本大小相同的情況下,產(chǎn)生較小的估計誤差。 使用 python 可以很容易地做到這一點:

from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = train_test_split(X, y, stratify=y, test_size=0.25)

水塘采樣

我喜歡這個問題陳述:

假設(shè)您有一個項目流,它長度較大且未知以至于我們只能迭代一次。 創(chuàng)建一個算法,從這個流中隨機選擇一個項目,這樣每個項目都有相同的可能被選中。

我們怎么能做到這一點? 假設(shè)我們必須從無限大的流中抽取 5 個對象,且每個元素被選中的概率都相等。

import randomdef generator(max): number = 1 while number < max: number += 1 yield number# Create as stream generatorstream = generator(10000)# Doing Reservoir Sampling from the streamk=5reservoir = []for i, element in enumerate(stream): if i+1<= k: reservoir.append(element) else: probability = k/(i+1) if random.random() < probability: # Select item in stream and remove one of the k items already selected reservoir[random.choice(range(0,k))] = elementprint(reservoir)------------------------------------[1369, 4108, 9986, 828, 5589]

從數(shù)學(xué)上可以證明,在樣本中,流中每個元素被選中的概率相同。這是為什么呢? 當(dāng)涉及到數(shù)學(xué)問題時,從一個小問題開始思考總是有幫助的。 所以,讓我們考慮一個只有 3 個項目的流,我們必須保留其中 2 個。 當(dāng)我們看到第一個項目,我們把它放在清單上,因為我們的水塘有空間。在我們看到第二個項目時,我們把它放在列表中,因為我們的水塘還是有空間。 現(xiàn)在我們看到第三個項目。這里是事情開始變得有趣的地方。我們有 2/3 的概率將第三個項目放在清單中。 現(xiàn)在讓我們看看第一個項目被選中的概率:

移除第一個項目的概率是項目 3 被選中的概率乘以項目 1 被隨機選為水塘中 2 個要素的替代候選的概率。這個概率是: 2/3*1/2 = 1/3 因此,選擇項目 1 的概率為: 1–1/3=2/3

我們可以對第二個項目使用完全相同的參數(shù),并且可以將其擴展到多個項目。 因此,每個項目被選中的概率相同:2/3 或者用一般的公式表示為 K/N 隨機欠采樣和過采樣

我們經(jīng)常會遇到不平衡的數(shù)據(jù)集。 一種廣泛采用的處理高度不平衡數(shù)據(jù)集的技術(shù)稱為重采樣。它包括從多數(shù)類(欠采樣)中刪除樣本或向少數(shù)類(過采樣)中添加更多示例。 讓我們先創(chuàng)建一些不平衡數(shù)據(jù)示例。

from sklearn.datasets import make_classificationX, y = make_classification( n_classes=2, class_sep=1.5, weights=[0.9, 0.1], n_informative=3, n_redundant=1, flip_y=0, n_features=20, n_clusters_per_class=1, n_samples=100, random_state=10)X = pd.DataFrame(X)X[ target ] = y

我們現(xiàn)在可以使用以下方法進行隨機過采樣和欠采樣:

num_0 = len(X[X[ target ]==0])num_1 = len(X[X[ target ]==1])print(num_0,num_1)# random undersampleundersampled_data = pd.concat([ X[X[ target ]==0].sample(num_1) , X[X[ target ]==1] ])print(len(undersampled_data))# random oversampleoversampled_data = pd.concat([ X[X[ target ]==0] , X[X[ target ]==1].sample(num_0, replace=True) ])print(len(oversampled_data))------------------------------------------------------------OUTPUT:90 1020180

使用 imbalanced-learn 進行欠采樣和過采樣imbalanced-learn(imblearn)是一個用于解決不平衡數(shù)據(jù)集問題的 python 包,它提供了多種方法來進行欠采樣和過采樣。a. 使用 Tomek Links 進行欠采樣:imbalanced-learn 提供的一種方法叫做 Tomek Links。Tomek Links 是鄰近的兩個相反類的例子。
在這個算法中,我們最終從 Tomek Links 中刪除了大多數(shù)元素,這為分類器提供了一個更好的決策邊界。

from imblearn.under_sampling import TomekLinks
tl = TomekLinks(return_indices=True, ratio= majority )X_tl, y_tl, id_tl = tl.fit_sample(X, y)

b. 使用 SMOTE 進行過采樣:在 SMOE(Synthetic Minority Oversampling Technique)中,我們在現(xiàn)有元素附近合并少數(shù)類的元素。

from imblearn.over_sampling import SMOTE
smote = SMOTE(ratio= minority )X_sm, y_sm = smote.fit_sample(X, y)

imbLearn 包中還有許多其他方法,可以用于欠采樣(Cluster Centroids, NearMiss 等)和過采樣(ADASYN 和 bSMOTE)。 結(jié)論算法是數(shù)據(jù)科學(xué)的生命線。 抽樣是數(shù)據(jù)科學(xué)中的一個重要課題,但我們實際上并沒有討論得足夠多。 有時,一個好的抽樣策略會大大推進項目的進展。錯誤的抽樣策略可能會給我們帶來錯誤的結(jié)果。因此,在選擇抽樣策略時應(yīng)該小心。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:機器學(xué)習(xí)中需要了解的 5 種采樣方法

文章出處:【微信號:tyutcsplab,微信公眾號:智能感知與物聯(lián)網(wǎng)技術(shù)研究所】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    USB 3.2雙通道操作:您需要了解的內(nèi)容

    電子發(fā)燒友網(wǎng)站提供《USB 3.2雙通道操作:您需要了解的內(nèi)容.pdf》資料免費下載
    發(fā)表于 08-30 10:09 ?0次下載
    USB 3.2雙通道操作:您<b class='flag-5'>需要了解</b>的內(nèi)容

    要了解下大模型知識

    工作需要,想要了解一下大模型算力建設(shè)知識。
    發(fā)表于 08-20 15:31

    【《時間序列與機器學(xué)習(xí)》閱讀體驗】+ 了解時間序列

    。 可以探索現(xiàn)象發(fā)展變化的規(guī)律,對某些社會經(jīng)濟現(xiàn)象進行預(yù)測。 利用時間序列可以在不同地區(qū)或國家之間進行對比分析,這也是統(tǒng)計分析的重要方法之一。 而《時間序列與機器學(xué)習(xí)》一書的后幾章分別介紹了時間序列在廣告
    發(fā)表于 08-11 17:55

    機器學(xué)習(xí)的數(shù)據(jù)分割方法

    機器學(xué)習(xí),數(shù)據(jù)分割是一項至關(guān)重要的任務(wù),它直接影響到模型的訓(xùn)練效果、泛化能力以及最終的性能評估。本文將從多個方面詳細探討機器學(xué)習(xí)
    的頭像 發(fā)表于 07-10 16:10 ?1183次閱讀

    機器學(xué)習(xí)的交叉驗證方法

    機器學(xué)習(xí),交叉驗證(Cross-Validation)是一重要的評估方法,它通過將數(shù)據(jù)集分割成多個部分來評估模型的性能,從而避免過擬合
    的頭像 發(fā)表于 07-10 16:08 ?805次閱讀

    深度學(xué)習(xí)的時間序列分類方法

    的發(fā)展,基于深度學(xué)習(xí)的TSC方法逐漸展現(xiàn)出其強大的自動特征提取和分類能力。本文將從多個角度對深度學(xué)習(xí)在時間序列分類的應(yīng)用進行綜述,探討常用的深度學(xué)
    的頭像 發(fā)表于 07-09 15:54 ?654次閱讀

    機器人視覺技術(shù)圖像分割方法有哪些

    和分析。本文將詳細介紹圖像分割的各種方法,包括傳統(tǒng)的圖像處理方法和基于深度學(xué)習(xí)方法。 閾值分割法 閾值分割法是一基于像素的圖像分割
    的頭像 發(fā)表于 07-04 11:34 ?685次閱讀

    不只是前端,后端、產(chǎn)品和測試也需要了解的瀏覽器知識

    一、我們?yōu)槭裁?b class='flag-5'>要了解瀏覽器? 1. 對于前端開發(fā)者 1.瀏覽器是用戶體驗的第一線。我們需要了解瀏覽器的工作原理,才能有效地設(shè)計和實現(xiàn)用戶界面,確保良好的用戶體驗。 2.好的產(chǎn)品需要考慮瀏覽器兼容性
    的頭像 發(fā)表于 07-01 18:03 ?412次閱讀
    不只是前端,后端、產(chǎn)品和測試也<b class='flag-5'>需要了解</b>的瀏覽器知識

    學(xué)習(xí)串口屏需要了解哪些方面的知識

    學(xué)習(xí)串口屏需要掌握的知識主要包括以下幾個方面
    的頭像 發(fā)表于 06-05 09:41 ?385次閱讀
    <b class='flag-5'>學(xué)習(xí)</b>串口屏<b class='flag-5'>需要了解</b>哪些方面的知識

    選擇貼片電容時需要了解哪些問題?

    購買貼片電容時,需要了解以下幾個方面: 1、電容類型與規(guī)格:貼片電容有多種類型,如陶瓷電容器、鋁電解電容器、鉭電解電容器、多層陶瓷電容器(MLCC)以及聚合物電容器等。每種類型都有其特定的應(yīng)用場
    的頭像 發(fā)表于 03-29 15:45 ?304次閱讀

    機器學(xué)習(xí)8大調(diào)參技巧

    今天給大家一篇關(guān)于機器學(xué)習(xí)調(diào)參技巧的文章。超參數(shù)調(diào)優(yōu)是機器學(xué)習(xí)例程的基本步驟之一。該方法也稱為
    的頭像 發(fā)表于 03-23 08:26 ?551次閱讀
    <b class='flag-5'>機器</b><b class='flag-5'>學(xué)習(xí)</b>8大調(diào)參技巧

    電源測試需要用到哪些計算公式?

    在電源模塊測試過程不僅要了解測試過程和步驟,對于一些測試項目而言還需要了解其正確的計算測試方法,得到準確的測試結(jié)果。
    的頭像 發(fā)表于 03-13 14:32 ?458次閱讀

    J-Link 的JTAG 接口:正確使用需要了解的注意事項,在這里!

    J-Link 的JTAG 接口:正確使用需要了解的注意事項,在這里!
    的頭像 發(fā)表于 12-01 16:01 ?1353次閱讀
    J-Link <b class='flag-5'>中</b>的JTAG 接口:正確使用<b class='flag-5'>需要了解</b>的注意事項,在這里!

    我們?yōu)槭裁?b class='flag-5'>需要了解一些先進封裝?

    我們?yōu)槭裁?b class='flag-5'>需要了解一些先進封裝?
    的頭像 發(fā)表于 11-23 16:32 ?538次閱讀
    我們?yōu)槭裁?b class='flag-5'>需要了解</b>一些先進封裝?

    需要了解的FPGA基礎(chǔ)知識

    的微處理器(MPU)和微控制器(MCU)、現(xiàn)成的圖形處理單元(GPU)、FPGA和自定義片中系統(tǒng)(SOC)裝置。要決定使用哪種方法需要根據(jù)具體的應(yīng)用需求來綜合考慮。 舉例來說,在研究諸如5G基站這樣
    發(fā)表于 11-20 18:56