0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

PyTorch入門須知PyTorch教程-2.2. 數(shù)據(jù)預(yù)處理

jf_bzMfoexS ? 來源:PyTorch ? 作者:PyTorch ? 2023-06-05 15:15 ? 次閱讀

到目前為止,我們一直在處理以現(xiàn)成張量形式到達的合成數(shù)據(jù)。然而,要在野外應(yīng)用深度學(xué)習(xí),我們必須提取以任意格式存儲的雜亂數(shù)據(jù),并對其進行預(yù)處理以滿足我們的需要。幸運的是,pandas 庫可以完成大部分繁重的工作。本節(jié)雖然不能替代適當(dāng)?shù)膒andas 教程,但將為您提供一些最常見例程的速成課程。

2.2.1. 讀取數(shù)據(jù)集

逗號分隔值 (CSV) 文件普遍用于存儲表格(類似電子表格)數(shù)據(jù)。此處,每一行對應(yīng)一個記錄并由多個(逗號分隔)字段組成,例如,“Albert Einstein,March 14 1879,Ulm,Federal polytechnic school,Accomplishments in the field of gravitational physics”。為了演示如何加載 CSV 文件pandas,我們在下面創(chuàng)建了一個 CSV 文件 ../data/house_tiny.csv。此文件表示房屋數(shù)據(jù)集,其中每一行對應(yīng)一個不同的房屋,列對應(yīng)房間數(shù) ( NumRooms)、屋頂類型 ( RoofType) 和價格 ( Price)。

import os

os.makedirs(os.path.join('..', 'data'), exist_ok=True)
data_file = os.path.join('..', 'data', 'house_tiny.csv')
with open(data_file, 'w') as f:
  f.write('''NumRooms,RoofType,Price
NA,NA,127500
2,NA,106000
4,Slate,178100
NA,NA,140000''')

現(xiàn)在讓我們導(dǎo)入pandas并加載數(shù)據(jù)集read_csv。

import pandas as pd

data = pd.read_csv(data_file)
print(data)

  NumRooms RoofType  Price
0    NaN   NaN 127500
1    2.0   NaN 106000
2    4.0  Slate 178100
3    NaN   NaN 140000

import pandas as pd

data = pd.read_csv(data_file)
print(data)

  NumRooms RoofType  Price
0    NaN   NaN 127500
1    2.0   NaN 106000
2    4.0  Slate 178100
3    NaN   NaN 140000

import pandas as pd

data = pd.read_csv(data_file)
print(data)

  NumRooms RoofType  Price
0    NaN   NaN 127500
1    2.0   NaN 106000
2    4.0  Slate 178100
3    NaN   NaN 140000

import pandas as pd

data = pd.read_csv(data_file)
print(data)

  NumRooms RoofType  Price
0    NaN   NaN 127500
1    2.0   NaN 106000
2    4.0  Slate 178100
3    NaN   NaN 140000

2.2.2. 數(shù)據(jù)準(zhǔn)備

在監(jiān)督學(xué)習(xí)中,我們訓(xùn)練模型在給定一組輸入值的情況下預(yù)測指定的目標(biāo)值。我們處理數(shù)據(jù)集的第一步是分離出對應(yīng)于輸入值和目標(biāo)值的列。我們可以按名稱或通過基于整數(shù)位置的索引 ( ) 選擇列。iloc

您可能已經(jīng)注意到,pandas將所有 CSV 條目替換NA為一個特殊的NaN(不是數(shù)字)值。這也可能在條目為空時發(fā)生,例如“3,,,270000”。這些被稱為缺失值,它們是數(shù)據(jù)科學(xué)的“臭蟲”,是您在整個職業(yè)生涯中都會遇到的持續(xù)威脅。根據(jù)上下文,缺失值可以通過 插補或刪除來處理。插補用缺失值的估計值替換缺失值,而刪除只是丟棄那些包含缺失值的行或列。

以下是一些常見的插補啟發(fā)法。對于分類輸入字段,我們可以將其視為NaN一個類別。由于該RoofType 列采用值Slate和NaN,pandas可以將此列轉(zhuǎn)換為兩列RoofType_Slate和RoofType_nan。屋頂類型為的行將分別將和 Slate的值設(shè)置為 1 和 0。相反的情況適用于具有缺失值的行。RoofType_SlateRoofType_nanRoofType

inputs, targets = data.iloc[:, 0:2], data.iloc[:, 2]
inputs = pd.get_dummies(inputs, dummy_na=True)
print(inputs)

  NumRooms RoofType_Slate RoofType_nan
0    NaN        0       1
1    2.0        0       1
2    4.0        1       0
3    NaN        0       1

inputs, targets = data.iloc[:, 0:2], data.iloc[:, 2]
inputs = pd.get_dummies(inputs, dummy_na=True)
print(inputs)

  NumRooms RoofType_Slate RoofType_nan
0    NaN        0       1
1    2.0        0       1
2    4.0        1       0
3    NaN        0       1

inputs, targets = data.iloc[:, 0:2], data.iloc[:, 2]
inputs = pd.get_dummies(inputs, dummy_na=True)
print(inputs)

  NumRooms RoofType_Slate RoofType_nan
0    NaN        0       1
1    2.0        0       1
2    4.0        1       0
3    NaN        0       1

inputs, targets = data.iloc[:, 0:2], data.iloc[:, 2]
inputs = pd.get_dummies(inputs, dummy_na=True)
print(inputs)

  NumRooms RoofType_Slate RoofType_nan
0    NaN        0       1
1    2.0        0       1
2    4.0        1       0
3    NaN        0       1

對于缺失的數(shù)值,一種常見的啟發(fā)式方法是用 NaN相應(yīng)列的平均值替換條目。

inputs = inputs.fillna(inputs.mean())
print(inputs)

  NumRooms RoofType_Slate RoofType_nan
0    3.0        0       1
1    2.0        0       1
2    4.0        1       0
3    3.0        0       1

inputs = inputs.fillna(inputs.mean())
print(inputs)

  NumRooms RoofType_Slate RoofType_nan
0    3.0        0       1
1    2.0        0       1
2    4.0        1       0
3    3.0        0       1

inputs = inputs.fillna(inputs.mean())
print(inputs)

  NumRooms RoofType_Slate RoofType_nan
0    3.0        0       1
1    2.0        0       1
2    4.0        1       0
3    3.0        0       1

inputs = inputs.fillna(inputs.mean())
print(inputs)

  NumRooms RoofType_Slate RoofType_nan
0    3.0        0       1
1    2.0        0       1
2    4.0        1       0
3    3.0        0       1

2.2.3. 轉(zhuǎn)換為張量格式

inputs現(xiàn)在 和中的所有條目targets都是數(shù)字,我們可以將它們加載到張量中(回憶一下2.1 節(jié))。

import torch

X, y = torch.tensor(inputs.values), torch.tensor(targets.values)
X, y

(tensor([[3., 0., 1.],
     [2., 0., 1.],
     [4., 1., 0.],
     [3., 0., 1.]], dtype=torch.float64),
 tensor([127500, 106000, 178100, 140000]))

from mxnet import np

X, y = np.array(inputs.values), np.array(targets.values)
X, y

(array([[3., 0., 1.],
    [2., 0., 1.],
    [4., 1., 0.],
    [3., 0., 1.]], dtype=float64),
 array([127500, 106000, 178100, 140000], dtype=int64))

from jax import numpy as jnp

X, y = jnp.array(inputs.values), jnp.array(targets.values)
X, y

No GPU/TPU found, falling back to CPU. (Set TF_CPP_MIN_LOG_LEVEL=0 and rerun for more info.)

(Array([[3., 0., 1.],
    [2., 0., 1.],
    [4., 1., 0.],
    [3., 0., 1.]], dtype=float32),
 Array([127500, 106000, 178100, 140000], dtype=int32))

import tensorflow as tf

X, y = tf.constant(inputs.values), tf.constant(targets.values)
X, y

(,
 )

2.2.4. 討論

您現(xiàn)在知道如何對數(shù)據(jù)列進行分區(qū)、估算缺失變量以及將pandas數(shù)據(jù)加載到張量中。在第 5.7 節(jié)中,您將掌握更多數(shù)據(jù)處理技能。雖然這個速成課程讓事情變得簡單,但數(shù)據(jù)處理可能會變得棘手。例如,我們的數(shù)據(jù)集可能分布在從關(guān)系數(shù)據(jù)庫中提取的多個文件中,而不是到達單個 CSV 文件。例如,在電子商務(wù)應(yīng)用程序中,客戶地址可能存在于一個表中,而購買數(shù)據(jù)則存在于另一個表中。此外,從業(yè)者還面臨著分類和數(shù)字以外的無數(shù)數(shù)據(jù)類型。其他數(shù)據(jù)類型包括文本字符串、圖像、音頻數(shù)據(jù)和點云。通常,需要先進的工具和高效的算法來防止數(shù)據(jù)處理成為機器學(xué)習(xí)管道中的最大瓶頸。當(dāng)我們涉及計算機視覺和自然語言處理時,就會出現(xiàn)這些問題。最后,我們必須關(guān)注數(shù)據(jù)質(zhì)量?,F(xiàn)實世界的數(shù)據(jù)集經(jīng)常受到異常值、傳感器錯誤測量和記錄錯誤的困擾,在將數(shù)據(jù)輸入任何模型之前必須解決這些問題。數(shù)據(jù)可視化工具,例如 seaborn、 Bokeh或 matplotlib可以幫助您手動檢查數(shù)據(jù)并形成關(guān)于您可能需要解決的問題的直覺。

2.2.5. 練習(xí)

嘗試從UCI 機器學(xué)習(xí)存儲庫加載數(shù)據(jù)集,例如 Abalone并檢查它們的屬性。其中有多少缺失值?變量的哪一部分是數(shù)字的、分類的或文本的?

嘗試按名稱而不是按列號索引和選擇數(shù)據(jù)列。有關(guān)索引的 Pandas 文檔 包含有關(guān)如何執(zhí)行此操作的更多詳細(xì)信息

您認(rèn)為您可以通過這種方式加載多大的數(shù)據(jù)集?可能有什么限制?提示:考慮讀取數(shù)據(jù)的時間、表示、處理和內(nèi)存占用。在筆記本電腦上試試這個。如果您在服務(wù)器上試用它會發(fā)生什么變化?

您將如何處理具有大量類別的數(shù)據(jù)?如果類別標(biāo)簽都是唯一的怎么辦?你應(yīng)該包括后者嗎?

你能想到什么 pandas 的替代品?如何從文件加載 NumPy 張量?查看Pillow,Python 圖像庫。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 數(shù)據(jù)
    +關(guān)注

    關(guān)注

    8

    文章

    6808

    瀏覽量

    88743
  • python
    +關(guān)注

    關(guān)注

    55

    文章

    4767

    瀏覽量

    84375
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5463

    瀏覽量

    120890
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    802

    瀏覽量

    13115
收藏 人收藏

    評論

    相關(guān)推薦

    Pytorch模型訓(xùn)練實用PDF教程【中文】

    ,結(jié)構(gòu)與機器學(xué)習(xí)三大部分一致:第一章,介紹數(shù)據(jù)的劃分,預(yù)處理,數(shù)據(jù)增強;第二章,介紹模型的定義,權(quán)值初始化,模型 Finetune;第三章,介紹各種損失函數(shù)及優(yōu)化器;第四章,介紹可視化工具,用于監(jiān)控
    發(fā)表于 12-21 09:18

    Pytorch入門之的基本操作

    Pytorch入門之基本操作
    發(fā)表于 05-22 17:15

    PyTorch如何入門

    PyTorch 入門實戰(zhàn)(一)——Tensor
    發(fā)表于 06-01 09:58

    Pytorch入門教程與范例

    的深度學(xué)習(xí)框架。 對于系統(tǒng)學(xué)習(xí) pytorch,官方提供了非常好的入門教程?,同時還提供了面向深度學(xué)習(xí)的示例,同時熱心網(wǎng)友分享了更簡潔的示例。 1. overview 不同于 theano
    發(fā)表于 11-15 17:50 ?5357次閱讀
    <b class='flag-5'>Pytorch</b><b class='flag-5'>入門</b>教程與范例

    PyTorch官網(wǎng)教程PyTorch深度學(xué)習(xí):60分鐘快速入門中文翻譯版

    PyTorch 深度學(xué)習(xí):60分鐘快速入門”為 PyTorch 官網(wǎng)教程,網(wǎng)上已經(jīng)有部分翻譯作品,隨著PyTorch1.0 版本的公布,這個教程有較大的代碼改動,本人對教程進行重新翻
    的頭像 發(fā)表于 01-13 11:53 ?1w次閱讀

    基于PyTorch的深度學(xué)習(xí)入門教程之PyTorch簡單知識

    計算 Part3:使用PyTorch構(gòu)建一個神經(jīng)網(wǎng)絡(luò) Part4:訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)分類器 Part5:數(shù)據(jù)并行化 本文是關(guān)于Part1的內(nèi)容。 Part1:PyTorch簡單知識 PyTorc
    的頭像 發(fā)表于 02-16 15:20 ?2209次閱讀

    基于PyTorch的深度學(xué)習(xí)入門教程之PyTorch的自動梯度計算

    計算 Part3:使用PyTorch構(gòu)建一個神經(jīng)網(wǎng)絡(luò) Part4:訓(xùn)練一個神經(jīng)網(wǎng)絡(luò)分類器 Part5:數(shù)據(jù)并行化 本文是關(guān)于Part2的內(nèi)容。 Part2:PyTorch的自動梯度計算 autograd
    的頭像 發(fā)表于 02-16 15:26 ?1984次閱讀

    利用Python和PyTorch處理面向?qū)ο蟮?b class='flag-5'>數(shù)據(jù)集(1)

    在本文中,我們將提供一種高效方法,用于完成數(shù)據(jù)的交互、組織以及最終變換(預(yù)處理)。隨后,我們將講解如何在訓(xùn)練過程中正確地把數(shù)據(jù)輸入給模型。PyTorch 框架將幫助我們實現(xiàn)此目標(biāo),我們
    的頭像 發(fā)表于 08-02 08:03 ?647次閱讀

    那些年在pytorch上踩過的坑

    今天又發(fā)現(xiàn)了一個pytorch的小坑,給大家分享一下。手上兩份同一模型的代碼,一份用tensorflow寫的,另一份是我拿pytorch寫的,模型架構(gòu)一模一樣,預(yù)處理數(shù)據(jù)的邏輯也一模一
    的頭像 發(fā)表于 02-22 14:18 ?1005次閱讀
    那些年在<b class='flag-5'>pytorch</b>上踩過的坑

    那些年在pytorch上過的當(dāng)

    最近在修改上一個同事加載和預(yù)處理數(shù)據(jù)的代碼,原版的代碼使用tf1.4.1寫的,數(shù)據(jù)加載也是完全就是for循環(huán)讀取+預(yù)處理,每讀入并預(yù)處理好一
    的頭像 發(fā)表于 02-22 14:19 ?457次閱讀
    那些年在<b class='flag-5'>pytorch</b>上過的當(dāng)

    PyTorch教程-2.2.數(shù)據(jù)預(yù)處理

    到目前為止,我們一直在處理以現(xiàn)成張量形式到達的合成數(shù)據(jù)。然而,要在野外應(yīng)用深度學(xué)習(xí),我們必須提取以任意格式存儲的雜亂數(shù)據(jù),并對其進行預(yù)處理以滿足我們的需要。幸運的是,pandas 庫可
    的頭像 發(fā)表于 06-02 09:34 ?541次閱讀

    PyTorch教程之數(shù)據(jù)預(yù)處理

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程之數(shù)據(jù)預(yù)處理.pdf》資料免費下載
    發(fā)表于 06-02 14:11 ?0次下載
    <b class='flag-5'>PyTorch</b>教程之<b class='flag-5'>數(shù)據(jù)</b><b class='flag-5'>預(yù)處理</b>

    深度學(xué)習(xí)框架pytorch入門與實踐

    深度學(xué)習(xí)框架pytorch入門與實踐 深度學(xué)習(xí)是機器學(xué)習(xí)中的一個分支,它使用多層神經(jīng)網(wǎng)絡(luò)對大量數(shù)據(jù)進行學(xué)習(xí),以實現(xiàn)人工智能的目標(biāo)。在實現(xiàn)深度學(xué)習(xí)的過程中,選擇一個適用的開發(fā)框架是非常關(guān)鍵
    的頭像 發(fā)表于 08-17 16:03 ?1543次閱讀

    pytorch如何訓(xùn)練自己的數(shù)據(jù)

    pandas matplotlib 數(shù)據(jù)準(zhǔn)備 在訓(xùn)練模型之前,我們需要對數(shù)據(jù)進行預(yù)處理。這包括數(shù)據(jù)清洗、數(shù)據(jù)增強、
    的頭像 發(fā)表于 07-11 10:04 ?421次閱讀

    PyTorch 數(shù)據(jù)加載與處理方法

    PyTorch 是一個流行的開源機器學(xué)習(xí)庫,它提供了強大的工具來構(gòu)建和訓(xùn)練深度學(xué)習(xí)模型。在構(gòu)建模型之前,一個重要的步驟是加載和處理數(shù)據(jù)。 1. PyTorch
    的頭像 發(fā)表于 11-05 17:37 ?231次閱讀