0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

PyTorch教程-18.2. 高斯過程先驗(yàn)

jf_pJlTbmA9 ? 來源:PyTorch ? 作者:PyTorch ? 2023-06-05 15:44 ? 次閱讀

了解高斯過程 (GP) 對于推理模型構(gòu)建和泛化以及在各種應(yīng)用中實(shí)現(xiàn)最先進(jìn)的性能非常重要,包括主動(dòng)學(xué)習(xí)和深度學(xué)習(xí)中的超參數(shù)調(diào)整。全科醫(yī)生無處不在,了解它們是什么以及我們?nèi)绾问褂盟鼈兎衔覀兊睦妗?/p>

在本節(jié)中,我們介紹高斯過程先驗(yàn)函數(shù)。在下一個(gè)筆記本中,我們將展示如何使用這些先驗(yàn)進(jìn)行后驗(yàn)推理和做出預(yù)測。下一節(jié)可以被視為“GPs in a nutshell”,快速給出在實(shí)踐中應(yīng)用高斯過程所需的內(nèi)容。

import numpy as np
from scipy.spatial import distance_matrix
from d2l import torch as d2l

d2l.set_figsize()

18.2.1。定義

高斯過程被定義為隨機(jī)變量的集合,其中任何有限數(shù)量的隨機(jī)變量都服從聯(lián)合高斯分布。如果一個(gè)函數(shù)f(x)是一個(gè)高斯過程,具有均值函數(shù) m(x)和協(xié)方差函數(shù)或內(nèi)核 k(x,x′), f(x)~GP(m,k),然后在任何輸入點(diǎn)集合處查詢的任何函數(shù)值集合x(時(shí)間、空間位置、圖像像素等),具有均值向量的聯(lián)合多元高斯分布μ和協(xié)方差矩陣 K:f(x1),…,f(xn)~N(μ,K), 在哪里 μi=E[f(xi)]=m(xi)和 Kij=Cov(f(xi),f(xj))=k(xi,xj).

這個(gè)定義看似抽象且難以理解,但高斯過程實(shí)際上是非常簡單的對象。任何功能

(18.2.1)f(x)=w??(x)=?w,?(x)?,

和w從高斯(正態(tài))分布中得出,和 ?是基函數(shù)的任何向量,例如 ?(x)=(1,x,x2,...,xd)?, 是一個(gè)高斯過程。此外,任何高斯過程f(x)都可以表示為方程(18.2.1)的形式。讓我們考慮一些具體的例子,開始熟悉高斯過程,然后我們才能體會(huì)到它們是多么簡單和有用。

18.2.2。一個(gè)簡單的高斯過程

認(rèn)為f(x)=w0+w1x, 和 w0,w1~N(0,1), 和w0,w1,x都在一個(gè)維度上。我們可以把這個(gè)函數(shù)等價(jià)地寫成內(nèi)積f(x)=(w0,w1)(1,x)?. 在 上面的(18.2.1)中,w=(w0,w1)?和 ?(x)=(1,x)?.

對于任何x,f(x)是兩個(gè)高斯隨機(jī)變量的總和。由于高斯在加法下是封閉的,f(x)也是任意的高斯隨機(jī)變量x. 事實(shí)上,我們可以計(jì)算任何特定的x那f(x)是 N(0,1+x2). 類似地,任何函數(shù)值集合的聯(lián)合分布,(f(x1),…,f(xn)), 對于任何輸入集合x1,…,xn, 是多元高斯分布。所以f(x)是一個(gè)高斯過程。

簡而言之,f(x)是隨機(jī)函數(shù),或函數(shù)分布。我們可以通過重復(fù)采樣值來深入了解這種分布w0,w1, 并可視化相應(yīng)的函數(shù)f(x),它們是具有斜率和不同截距的直線,如下所示:

def lin_func(x, n_sample):
  preds = np.zeros((n_sample, x.shape[0]))
  for ii in range(n_sample):
    w = np.random.normal(0, 1, 2)
    y = w[0] + w[1] * x
    preds[ii, :] = y
  return preds

x_points = np.linspace(-5, 5, 50)
outs = lin_func(x_points, 10)
lw_bd = -2 * np.sqrt((1 + x_points ** 2))
up_bd = 2 * np.sqrt((1 + x_points ** 2))

d2l.plt.fill_between(x_points, lw_bd, up_bd, alpha=0.25)
d2l.plt.plot(x_points, np.zeros(len(x_points)), linewidth=4, color='black')
d2l.plt.plot(x_points, outs.T)
d2l.plt.xlabel("x", fontsize=20)
d2l.plt.ylabel("f(x)", fontsize=20)
d2l.plt.show()

pYYBAGR9PTSAKYoyAACD4mECYpw630.svg

如果w0和w1取而代之的是 N(0,α2),你如何想象變化 α影響函數(shù)的分布?

18.2.3。從權(quán)重空間到函數(shù)空間

在上圖中,我們看到了模型中參數(shù)的分布如何導(dǎo)致函數(shù)的分布。雖然我們經(jīng)常對我們想要建模的函數(shù)有想法——無論它們是平滑的、周期性的、快速變化的,等等——但對參數(shù)進(jìn)行推理是相對乏味的,這些參數(shù)在很大程度上是不可解釋的。幸運(yùn)的是,高斯過程提供了一種簡單的機(jī)制來直接推理函數(shù)。由于高斯分布完全由其前兩個(gè)矩、其均值和協(xié)方差矩陣定義,因此擴(kuò)展的高斯過程由其均值函數(shù)和協(xié)方差函數(shù)定義。

在上面的例子中,均值函數(shù)

(18.2.2)m(x)=E[f(x)]=E[w0+w1x]=E[w0]+E[w1]x=0+0=0.

同樣,協(xié)方差函數(shù)是

(18.2.3)k(x,x′)=Cov(f(x),f(x′))=E[f(x)f(x′)]?E[f(x)]E[f(x′)]=E[w02+w0w1x′+w1w0x+w12xx′]=1+xx′.

我們的函數(shù)分布現(xiàn)在可以直接指定和采樣,而不需要從參數(shù)分布中采樣。例如,從f(x),我們可以簡單地形成與任何集合相關(guān)聯(lián)的多元高斯分布 x我們想查詢,并直接從中采樣。我們將開始看到這個(gè)公式的優(yōu)勢。

首先,我們注意到上面簡單直線模型的基本相同的推導(dǎo)可以應(yīng)用于找到任何形式的模型的均值和協(xié)方差函數(shù)f(x)=w??(x), 和w~N(u,S). 在這種情況下,均值函數(shù) m(x)=u??(x)和協(xié)方差函數(shù) k(x,x′)=?(x)?S?(x′). 自從?(x)可以表示任何非線性基函數(shù)的向量,我們正在考慮一個(gè)非常通用的模型類,包括具有甚至無限 數(shù)量參數(shù)的模型。

18.2.4。徑向基函數(shù) (RBF) 內(nèi)核

徑向基函數(shù)(RBF) 核是高斯過程和一般核機(jī)最流行的協(xié)方差函數(shù)。該內(nèi)核具有以下形式 kRBF(x,x′)=a2exp?(?12?2||x?x′||2), 在哪里a是幅度參數(shù),并且?是 長度尺度超參數(shù)。

讓我們從權(quán)重空間開始推導(dǎo)這個(gè)內(nèi)核??紤]函數(shù)

(18.2.4)f(x)=∑i=1Jwi?i(x),wi~N(0,σ2J),?i(x)=exp?(?(x?ci)22?2).

f(x)是徑向基函數(shù)的總和,寬度為 ?, 以點(diǎn)為中心ci,如下圖所示。

我們可以認(rèn)出f(x)作為具有形式 w??(x), 在哪里w=(w1,…,wJ)?和 ?(x)是包含每個(gè)徑向基函數(shù)的向量。這個(gè)高斯過程的協(xié)方差函數(shù)是

(18.2.5)k(x,x′)=σ2J∑i=1J?i(x)?i(x′).

現(xiàn)在讓我們考慮當(dāng)我們將參數(shù)(和基函數(shù))的數(shù)量取為無窮大時(shí)會(huì)發(fā)生什么。讓cJ=log?J, c1=?log?J, 和 ci+1?ci=Δc=2log?JJ, 和 J→∞. 協(xié)方差函數(shù)變?yōu)槔杪停?/p>

(18.2.6)k(x,x′)=limJ→∞σ2J∑i=1J?i(x)?i(x′)=∫c0c∞?c(x)?c(x′)dc.

通過設(shè)置c0=?∞和c∞=∞,我們將無限多的基函數(shù)分布在整條實(shí)線上,每一個(gè)距離Δc→0分開:

(18.2.7)k(x,x′)=∫?∞∞exp?(?(x?c)22?2)exp?(?(x′?c)22?2)dc=π?σ2exp?(?(x?x′)22(2?)2)∝kRBF(x,x′).

值得花點(diǎn)時(shí)間來吸收我們在這里所做的一切。通過進(jìn)入函數(shù)空間表示,我們推導(dǎo)出了如何使用有限的計(jì)算量來表示具有無限數(shù)量參數(shù)的模型。具有 RBF 核的高斯過程是一個(gè)通用逼近器,能夠以任意精度表示任何連續(xù)函數(shù)。從上面的推導(dǎo)我們可以直觀的看出為什么。我們可以將每個(gè)徑向基函數(shù)折疊成一個(gè)點(diǎn)質(zhì)量?→0, 并給每個(gè)點(diǎn)質(zhì)量我們想要的任何高度。

因此,具有 RBF 核的高斯過程是一個(gè)具有無限數(shù)量參數(shù)且比任何有限神經(jīng)網(wǎng)絡(luò)都更加靈活的模型。也許所有關(guān)于過度參數(shù)化神經(jīng)網(wǎng)絡(luò)的大驚小怪都是錯(cuò)誤的。正如我們將看到的,具有 RBF 內(nèi)核的 GP 不會(huì)過度擬合,并且實(shí)際上在小型數(shù)據(jù)集上提供了特別引人注目的泛化性能。此外, ( Zhang et al. , 2021 )中的示例 ,例如能夠完美地?cái)M合具有隨機(jī)標(biāo)簽的圖像,但仍然可以很好地概括結(jié)構(gòu)化問題,(可以使用高斯過程完美地再現(xiàn)) (Wilson 和 Izmailov,2020 年) . 神經(jīng)網(wǎng)絡(luò)并不像我們想象的那么獨(dú)特。

我們可以通過直接從函數(shù)分布中采樣,使用 RBF 內(nèi)核和超參數(shù)(例如length-scale )進(jìn)一步了解高斯過程。和以前一樣,這涉及一個(gè)簡單的過程:

選擇輸入x我們要查詢GP的點(diǎn)數(shù): x1,…,xn.

評價(jià)m(xi),i=1,…,n, 和 k(xi,xj)為了i,j=1,…,n分別構(gòu)成均值向量和協(xié)方差矩陣μ和K, 在哪里(f(x1),…,f(xn))~N(μ,K).

從此多元高斯分布中采樣以獲得樣本函數(shù)值。

采樣更多次以可視化在這些點(diǎn)查詢的更多示例函數(shù)。

我們在下圖中說明了這個(gè)過程。

def rbfkernel(x1, x2, ls=4.): #@save
  dist = distance_matrix(np.expand_dims(x1, 1), np.expand_dims(x2, 1))
  return np.exp(-(1. / ls / 2) * (dist ** 2))

x_points = np.linspace(0, 5, 50)
meanvec = np.zeros(len(x_points))
covmat = rbfkernel(x_points,x_points, 1)

prior_samples= np.random.multivariate_normal(meanvec, covmat, size=5);
d2l.plt.plot(x_points, prior_samples.T, alpha=0.5)
d2l.plt.show()

poYBAGR9PTaABEIYAABcqru5mwI075.svg

18.2.5。神經(jīng)網(wǎng)絡(luò)內(nèi)核

機(jī)器學(xué)習(xí)中高斯過程的研究是由神經(jīng)網(wǎng)絡(luò)研究引發(fā)的。Radford Neal 一直在追求更大的貝葉斯神經(jīng)網(wǎng)絡(luò),最終在 1994 年(后來于 1996 年發(fā)表,因?yàn)樗亲畛裘阎?NeurIPS 拒絕之一)表明這種具有無限數(shù)量隱藏單元的網(wǎng)絡(luò)成為具有特定核函數(shù)的高斯過程(Neal , 1996 ) . 對這種推導(dǎo)的興趣重新浮出水面,像神經(jīng)正切核這樣的想法被用來研究神經(jīng)網(wǎng)絡(luò)的泛化特性(Matthews等人,2018 年) (Novak等人,2018 年). 我們可以按如下方式推導(dǎo)出神經(jīng)網(wǎng)絡(luò)內(nèi)核。

考慮一個(gè)神經(jīng)網(wǎng)絡(luò)函數(shù)f(x)有一個(gè)隱藏層:

(18.2.8)f(x)=b+∑i=1Jvih(x;ui).

b是一種偏見,vi是隱藏輸出權(quán)重, h是任何有界隱藏單元傳遞函數(shù),ui是隱藏權(quán)重的輸入,并且J是隱藏單元的數(shù)量。讓b和vi獨(dú)立于零均值和方差σb2和σv2/J,分別讓ui有獨(dú)立的同分布。然后我們可以使用中心極限定理來證明任何函數(shù)值的集合f(x1),…,f(xn)具有聯(lián)合多元高斯分布。

對應(yīng)的高斯過程的均值和協(xié)方差函數(shù)為:

(18.2.9)m(x)=E[f(x)]=0

(18.2.10)k(x,x′)=cov[f(x),f(x′)]=E[f(x)f(x′)]=σb2+1J∑i=1Jσv2E[hi(x;ui)hi(x′;ui)]

在某些情況下,我們基本上可以以封閉形式評估此協(xié)方差函數(shù)。讓 h(x;u)=erf(u0+∑j=1Pujxj), 在哪里 erf(z)=2π∫0ze?t2dt, 和u~N(0,Σ). 然后 k(x,x′)=2πsin(2x~?Σx~′(1+2x~?Σx~)(1+2x~′?Σx~′)).

RBF 內(nèi)核是固定的,這意味著它是平移不變的,因此可以寫成以下的函數(shù) τ=x?x′. 直觀上,平穩(wěn)性意味著函數(shù)的高級屬性(例如變化率)不會(huì)隨著我們在輸入空間中的移動(dòng)而改變。然而,神經(jīng)網(wǎng)絡(luò)內(nèi)核是非 平穩(wěn)的。下面,我們展示了來自具有此內(nèi)核的高斯過程的示例函數(shù)。我們可以看到函數(shù)在原點(diǎn)附近看起來有質(zhì)的不同。

18.2.6。概括

執(zhí)行貝葉斯推理的第一步涉及指定先驗(yàn)。高斯過程可用于指定整體先驗(yàn)函數(shù)。從傳統(tǒng)的“權(quán)重空間”建模觀點(diǎn)出發(fā),我們可以通過從模型的函數(shù)形式入手并引入其參數(shù)分布來推導(dǎo)先驗(yàn)函數(shù)。我們也可以直接在函數(shù)空間中指定先驗(yàn)分布,其屬性由內(nèi)核控制。函數(shù)空間方法有很多優(yōu)點(diǎn)。我們可以構(gòu)建實(shí)際上對應(yīng)無限數(shù)量參數(shù)的模型,但使用有限的計(jì)算量!此外,雖然這些模型具有很大的靈活性,但它們也對先驗(yàn)可能的函數(shù)類型做出了強(qiáng)有力的假設(shè),從而在小數(shù)據(jù)集上產(chǎn)生了相對較好的泛化。

函數(shù)空間中模型的假設(shè)由內(nèi)核直觀地控制,內(nèi)核通常對函數(shù)的更高級別屬性進(jìn)行編碼,例如平滑度和周期性。許多內(nèi)核是靜止的,這意味著它們是平移不變的。無論我們在輸入空間的哪個(gè)位置查看,從具有固定內(nèi)核的高斯過程中提取的函數(shù)具有大致相同的高級屬性(例如變化率)。

高斯過程是一個(gè)比較通用的模型類,包含了很多我們已經(jīng)熟悉的模型例子,包括多項(xiàng)式、傅里葉級數(shù)等等,只要我們對參數(shù)有一個(gè)高斯先驗(yàn)就可以了。它們還包括具有無限數(shù)量參數(shù)的神經(jīng)網(wǎng)絡(luò),甚至在參數(shù)上沒有高斯分布。Radford Neal 發(fā)現(xiàn)的這種聯(lián)系促使機(jī)器學(xué)習(xí)研究人員從神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)向高斯過程。

18.2.7。練習(xí)

從具有 Ornstein-Uhlenbeck (OU) 核的 GP 中提取樣本先驗(yàn)函數(shù), kOU(x,x′)=exp?(?12?||x?x′|). 如果你固定長度尺度?同樣,這些函數(shù)與具有 RBF 內(nèi)核的 GP 中的示例函數(shù)有何不同?

如何改變振幅 a2RBF 核影響函數(shù)的分布?

假設(shè)我們形成u(x)=f(x)+2g(x), 在哪里 f(x)~GP(m1,k1)和 g(x)~GP(m2,k2). 是u(x)一個(gè)高斯過程,如果是,它的均值和協(xié)方差函數(shù)是什么?

假設(shè)我們形成g(x)=a(x)f(x), 在哪里 f(x)~GP(0,k)和a(x)=x2. 是 g(x)一個(gè)高斯過程,如果是,它的均值和協(xié)方差函數(shù)是什么?有什么作用a(x)?樣本函數(shù)是從什么得出的g(x)看起來像?

假設(shè)我們形成u(x)=f(x)g(x), 在哪里 f(x)~GP(m1,k1)和 g(x)~GP(m2,k2). 是u(x)一個(gè)高斯過程,如果是,它的均值和協(xié)方差函數(shù)是什么?

Discussions

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • GP
    GP
    +關(guān)注

    關(guān)注

    0

    文章

    29

    瀏覽量

    23451
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    795

    瀏覽量

    13019
收藏 人收藏

    評論

    相關(guān)推薦

    一文了解高斯濾波器,附原理及實(shí)現(xiàn)過程

    `本文主要介紹了高斯濾波器的原理及其實(shí)現(xiàn)過程高斯濾波器是一種線性濾波器,能夠有效的抑制噪聲,平滑圖像。其作用原理和均值濾波器類似,都是取濾波器窗口內(nèi)的像素的均值作為輸出。其窗口模板的系數(shù)和均值濾波器
    發(fā)表于 09-04 08:00

    PyTorch如何入門

    PyTorch 入門實(shí)戰(zhàn)(一)——Tensor
    發(fā)表于 06-01 09:58

    高斯過程回歸GPR和多任務(wù)高斯過程MTGP

    使用相關(guān)方法的論文進(jìn)行了簡述,最后附上對兩種方法的編程實(shí)現(xiàn)。所有內(nèi)容的是從我自己的總結(jié)文檔中截取的不足之處,歡迎指正。高斯過程回歸高斯過程以概率分布來表示函數(shù)輸出的
    發(fā)表于 06-30 06:59

    基于高斯過程回歸的云計(jì)算資源調(diào)度算法

    針對現(xiàn)有基于強(qiáng)化學(xué)習(xí)的云資源調(diào)度算法收斂速度慢的問題,在詳細(xì)分析云作業(yè)執(zhí)行流程后,采用了一種細(xì)粒度的云計(jì)算平臺(tái)模型,設(shè)計(jì)了一種基于高斯過程回歸和強(qiáng)化學(xué)習(xí)的云計(jì)算資源調(diào)度算法。算法將資源分配問題轉(zhuǎn)換
    發(fā)表于 11-02 16:50 ?15次下載
    基于<b class='flag-5'>高斯</b><b class='flag-5'>過程</b>回歸的云計(jì)算資源調(diào)度算法

    監(jiān)測時(shí)間序列數(shù)據(jù)的高斯過程建模與多步預(yù)測

    針對傳感網(wǎng)環(huán)境監(jiān)測應(yīng)用采集的時(shí)間序列數(shù)據(jù),提出了一種新的基于高斯過程模型的多步預(yù)測方法,實(shí)現(xiàn)了對未來時(shí)刻的環(huán)境監(jiān)測數(shù)據(jù)的預(yù)測。高斯過程模型通過核函數(shù)描述數(shù)據(jù)的特性,通過對環(huán)境監(jiān)測數(shù)據(jù)的
    發(fā)表于 03-08 10:12 ?1次下載

    高斯過程隱變量模型及相關(guān)實(shí)踐

    高斯過程隱變量模型(GPLⅴM)作為一種無監(jiān)督的貝葉斯非參數(shù)降維模型,無法有效利用數(shù)據(jù)所包含的語義標(biāo)記信息,同時(shí)其建模過程中假設(shè)觀測變量的各特征相互獨(dú)立,忽略了特征之間的空間結(jié)構(gòu)信息。為解決上述問題
    發(fā)表于 03-11 16:01 ?8次下載

    基于狄利克雷過程的可擴(kuò)展高斯混合模型

    針對使用高斯混合模型的圖像先驗(yàn)建模中分量數(shù)目難以擴(kuò)展的問題,構(gòu)建基于狄利克雷過程的可擴(kuò)展高斯混合模型。通過聚類分量的新增及歸并機(jī)制,使模型復(fù)雜度根據(jù)數(shù)據(jù)規(guī)模自適應(yīng)變化,從而增強(qiáng)
    發(fā)表于 04-29 11:17 ?7次下載
    基于狄利克雷<b class='flag-5'>過程</b>的可擴(kuò)展<b class='flag-5'>高斯</b>混合模型

    什么是高斯過程 神經(jīng)網(wǎng)絡(luò)高斯過程解析

    神經(jīng)網(wǎng)絡(luò)是怎么和高斯過程聯(lián)系在一起的呢?Lee et al. [1] and Neal [2] 指出,隨機(jī)初始化無限寬網(wǎng)絡(luò)的參數(shù)會(huì)產(chǎn)生一個(gè)高斯過程,稱作神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 08-10 11:25 ?4241次閱讀

    PyTorch教程18.1之高斯過程簡介

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程18.1之高斯過程簡介.pdf》資料免費(fèi)下載
    發(fā)表于 06-05 10:46 ?0次下載
    <b class='flag-5'>PyTorch</b>教程18.1之<b class='flag-5'>高斯</b><b class='flag-5'>過程</b>簡介

    PyTorch教程18.2高斯過程先驗(yàn)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程18.2高斯過程先驗(yàn).pdf》資料免費(fèi)下載
    發(fā)表于 06-05 10:47 ?0次下載
    <b class='flag-5'>PyTorch</b>教程<b class='flag-5'>18.2</b>之<b class='flag-5'>高斯</b><b class='flag-5'>過程</b><b class='flag-5'>先驗(yàn)</b>

    PyTorch教程18.3之高斯過程推理

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程18.3之高斯過程推理.pdf》資料免費(fèi)下載
    發(fā)表于 06-05 10:48 ?0次下載
    <b class='flag-5'>PyTorch</b>教程18.3之<b class='flag-5'>高斯</b><b class='flag-5'>過程</b>推理

    PyTorch教程-18.1. 高斯過程簡介

    18.1. 高斯過程簡介? Colab [火炬]在 Colab 中打開筆記本 Colab [mxnet] Open the notebook in Colab Colab [jax
    的頭像 發(fā)表于 06-05 15:44 ?760次閱讀
    <b class='flag-5'>PyTorch</b>教程-18.1. <b class='flag-5'>高斯</b><b class='flag-5'>過程</b>簡介

    PyTorch教程-18.3。高斯過程推理

    18.3。高斯過程推理? Colab [火炬]在 Colab 中打開筆記本 Colab [mxnet] Open the notebook in Colab Colab [jax
    的頭像 發(fā)表于 06-05 15:44 ?890次閱讀
    <b class='flag-5'>PyTorch</b>教程-18.3。<b class='flag-5'>高斯</b><b class='flag-5'>過程</b>推理

    解讀PyTorch模型訓(xùn)練過程

    PyTorch作為一個(gè)開源的機(jī)器學(xué)習(xí)庫,以其動(dòng)態(tài)計(jì)算圖、易于使用的API和強(qiáng)大的靈活性,在深度學(xué)習(xí)領(lǐng)域得到了廣泛的應(yīng)用。本文將深入解讀PyTorch模型訓(xùn)練的全過程,包括數(shù)據(jù)準(zhǔn)備、模型構(gòu)建、訓(xùn)練循環(huán)、評估與保存等關(guān)鍵步驟,并結(jié)合
    的頭像 發(fā)表于 07-03 16:07 ?594次閱讀

    PyTorch神經(jīng)網(wǎng)絡(luò)模型構(gòu)建過程

    PyTorch,作為一個(gè)廣泛使用的開源深度學(xué)習(xí)庫,提供了豐富的工具和模塊,幫助開發(fā)者構(gòu)建、訓(xùn)練和部署神經(jīng)網(wǎng)絡(luò)模型。在神經(jīng)網(wǎng)絡(luò)模型中,輸出層是尤為關(guān)鍵的部分,它負(fù)責(zé)將模型的預(yù)測結(jié)果以合適的形式輸出。以下將詳細(xì)解析PyTorch中神經(jīng)網(wǎng)絡(luò)輸出層的特性及整個(gè)模型的構(gòu)建
    的頭像 發(fā)表于 07-10 14:57 ?312次閱讀