0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

PyTorch教程-18.1. 高斯過程簡(jiǎn)介

jf_pJlTbmA9 ? 來源:PyTorch ? 作者:PyTorch ? 2023-06-05 15:44 ? 次閱讀

在許多情況下,機(jī)器學(xué)習(xí)相當(dāng)于從數(shù)據(jù)中估計(jì)參數(shù)。這些參數(shù)通常很多且相對(duì)難以解釋——例如神經(jīng)網(wǎng)絡(luò)的權(quán)重。相比之下,高斯過程提供了一種機(jī)制,可以直接推理適合我們數(shù)據(jù)的函數(shù)的高級(jí)屬性。例如,我們可能了解這些函數(shù)是否快速變化、周期性、涉及條件獨(dú)立性或平移不變性。高斯過程使我們能夠通過直接指定適合我們數(shù)據(jù)的函數(shù)值的高斯分布,輕松地將這些屬性合并到我們的模型中。

讓我們從一些例子開始,感受一下高斯過程是如何運(yùn)作的。

假設(shè)我們觀察以下回歸目標(biāo)(輸出)的數(shù)據(jù)集,y,由輸入索引x. 例如,目標(biāo)可以是二氧化碳濃度的變化,輸入可以是記錄這些目標(biāo)的時(shí)間。數(shù)據(jù)有哪些特點(diǎn)?它看起來變化多快?我們是否定期收集數(shù)據(jù)點(diǎn),或者是否缺少輸入?您如何想象填補(bǔ)缺失的區(qū)域,或預(yù)測(cè)直到x=25?

https://file.elecfans.com/web2/M00/A9/CD/poYBAGR9PPyAc7YNAAC_o4iD57A201.svg

圖 18.1.1觀測(cè)數(shù)據(jù)。

為了用高斯過程擬合數(shù)據(jù),我們首先指定我們認(rèn)為合理的函數(shù)類型的先驗(yàn)分布。在這里,我們展示了幾個(gè)來自高斯過程的示例函數(shù)。這個(gè)先驗(yàn)看起來合理嗎?請(qǐng)注意,這里我們不是在尋找適合我們數(shù)據(jù)集的函數(shù),而是在尋找解決方案的合理高級(jí)屬性,例如它們隨輸入變化的速度。請(qǐng)注意,我們將在下一個(gè)關(guān)于先驗(yàn)和推理的筆記本中看到用于重現(xiàn)此筆記本中所有圖的代碼。

https://file.elecfans.com/web2/M00/AA/48/pYYBAGR9PP6AGLMoAAByefveCHc747.svg

圖 18.1.2我們可能希望用我們的模型表示的示例先驗(yàn)函數(shù)。

一旦我們以數(shù)據(jù)為條件,我們就可以使用它來推斷適合數(shù)據(jù)的函數(shù)的后驗(yàn)分布。在這里,我們展示了示例后驗(yàn)函數(shù)。

https://file.elecfans.com/web2/M00/AA/48/pYYBAGR9PQCAK2WmAAF9sEzpcC8328.svg

圖 18.1.3樣本后驗(yàn)函數(shù),一旦我們觀察到數(shù)據(jù)。

我們看到這些函數(shù)中的每一個(gè)都與我們的數(shù)據(jù)完全一致,完美地貫穿了每一次觀察。為了使用這些后驗(yàn)樣本進(jìn)行預(yù)測(cè),我們可以對(duì)后驗(yàn)中每個(gè)可能的樣本函數(shù)的值進(jìn)行平均,以創(chuàng)建下面的粗藍(lán)色曲線。請(qǐng)注意,我們實(shí)際上不必采用無限數(shù)量的樣本來計(jì)算此期望;正如我們稍后將看到的,我們可以計(jì)算封閉形式的期望。

https://file.elecfans.com/web2/M00/A9/CD/poYBAGR9PQOAANq0AAGKOFg-YU4060.svg

圖 18.1.4后驗(yàn)樣本,以及后驗(yàn)均值,可用于點(diǎn)預(yù)測(cè),藍(lán)色。

我們可能還需要不確定性的表示,因此我們知道我們應(yīng)該對(duì)我們的預(yù)測(cè)有多大的信心。直覺上,我們應(yīng)該有更多的不確定性,因?yàn)闃颖竞篁?yàn)函數(shù)的可變性更大,因?yàn)檫@告訴我們真實(shí)函數(shù)可以采用更多可能的值。這種不確定性稱為認(rèn)知不確定性,即可約化的不確定性。與缺乏信息有關(guān)。隨著我們獲取更多數(shù)據(jù),這種不確定性就會(huì)消失,因?yàn)榕c我們觀察到的一致的解決方案將越來越少。與后驗(yàn)均值一樣,我們可以計(jì)算封閉形式的后驗(yàn)方差(這些函數(shù)在后驗(yàn)中的可變性)。使用陰影,我們?cè)诰祪蓚?cè)顯示兩倍的后驗(yàn)標(biāo)準(zhǔn)差,創(chuàng)建一個(gè)可信區(qū)間 ,該區(qū)間有 95% 的概率包含任何輸入的函數(shù)真實(shí)值x.

https://file.elecfans.com/web2/M00/A9/CD/poYBAGR9PQWATnU9AAHgGnHjlss694.svg

圖 18.1.5后驗(yàn)樣本,包括 95% 的可信集。

如果我們刪除后驗(yàn)樣本,只需可視化數(shù)據(jù)、后驗(yàn)均值和 95% 可信集,該圖看起來會(huì)更清晰一些。注意不確定性如何從數(shù)據(jù)中增長(zhǎng),這是認(rèn)知不確定性的一個(gè)特性。

https://file.elecfans.com/web2/M00/A9/CD/poYBAGR9PQeAWUckAADQ-Om3KjE055.svg

圖 18.1.6點(diǎn)預(yù)測(cè)和可信集。

我們用來擬合數(shù)據(jù)的高斯過程的屬性受到所謂的協(xié)方差函數(shù)(也稱為內(nèi)核)的強(qiáng)烈控制。我們使用的協(xié)方差函數(shù)稱為RBF(徑向基函數(shù))核,其形式為

(18.1.1)kRBF(x,x′)=Cov(f(x),f(x′))=a2exp?(?12?2||x?x′||2)

這個(gè)內(nèi)核的超參數(shù)是可解釋。振幅 參數(shù)_a控制函數(shù)變化的垂直尺度,以及長(zhǎng)度尺度參數(shù)?控制函數(shù)的變化率(擺動(dòng)度)。更大a 意味著更大的函數(shù)值,并且更大?意味著更緩慢地改變函數(shù)。讓我們看看我們的樣本先驗(yàn)函數(shù)和后驗(yàn)函數(shù)隨著我們的變化會(huì)發(fā)生什么a?.

長(zhǎng)度尺度對(duì) GP 的預(yù)測(cè)和不確定性有特別顯著的影響。||x?x′||=?,一對(duì)函數(shù)值之間的協(xié)方差是a2exp?(?0.5). 在比更遠(yuǎn)的距離?,函數(shù)值變得幾乎不相關(guān)。這意味著如果我們想在某個(gè)點(diǎn)做出預(yù)測(cè)x?,然后是帶有輸入的函數(shù)值 x這樣||x?x′||>?不會(huì)對(duì)我們的預(yù)測(cè)產(chǎn)生強(qiáng)烈影響。

讓我們看看更改長(zhǎng)度尺度如何影響樣本先驗(yàn)和后驗(yàn)函數(shù)以及可信集。以上擬合使用長(zhǎng)度尺度2. 現(xiàn)在讓我們考慮 ?=0.1,0.5,2,5,10. 的長(zhǎng)度尺度0.1相對(duì)于我們正在考慮的輸入域的范圍來說非常小, 25. 例如,函數(shù)的值在x=5x=10在這樣的長(zhǎng)度范圍內(nèi)基本上沒有相關(guān)性。另一方面,對(duì)于長(zhǎng)度尺度10,這些輸入的函數(shù)值將高度相關(guān)。請(qǐng)注意,下圖中的垂直比例發(fā)生了變化。

先驗(yàn)點(diǎn)1郵寄1

優(yōu)先點(diǎn)5郵寄5

先驗(yàn)2post2

先驗(yàn)5post5

請(qǐng)注意,隨著長(zhǎng)度尺度的增加,函數(shù)的“擺動(dòng)性”會(huì)降低,我們的不確定性也會(huì)降低。如果長(zhǎng)度尺度很小,隨著我們遠(yuǎn)離數(shù)據(jù),不確定性會(huì)迅速增加,因?yàn)閿?shù)據(jù)點(diǎn)對(duì)函數(shù)值的信息變得越來越少。

現(xiàn)在,讓我們改變振幅參數(shù),將長(zhǎng)度尺度固定在2. 請(qǐng)注意,垂直比例對(duì)于先驗(yàn)樣本保持固定,而對(duì)于后驗(yàn)樣本則不同,因此您可以清楚地看到函數(shù)的增加比例以及對(duì)數(shù)據(jù)的擬合。

先驗(yàn)1郵寄點(diǎn)1

先驗(yàn)2posta2

先驗(yàn)8郵局8

我們看到振幅參數(shù)影響函數(shù)的尺度,但不影響變化率。在這一點(diǎn)上,我們也感覺到我們程序的泛化性能將取決于這些超參數(shù)的合理值。價(jià)值觀?=2a=1似乎提供了合理的擬合,而其他一些值卻沒有。幸運(yùn)的是,有一種強(qiáng)大且自動(dòng)的方法可以使用所謂的邊際似然來指定這些超參數(shù),我們將在筆記本中進(jìn)行推理。

那么究竟什么是全科醫(yī)生呢?在我們開始時(shí),GP 簡(jiǎn)單地說任何函數(shù)值的集合f(x1),…,f(xn), 由任何輸入集合索引x1,…,xn具有聯(lián)合多元高斯分布。均值向量μ此分布的 由均值函數(shù)給出,該函數(shù)通常被視為常數(shù)或零。該分布的協(xié)方差矩陣由 在所有輸入對(duì)上評(píng)估的內(nèi)核給出x.

(18.1.2)[f(x)f(x1)?f(xn)]~N(μ,[k(x,x)k(x,x1)…k(x,xn)k(x1,x)k(x1,x1)…k(x1,xn)????k(xn,x)k(xn,x1)…k(xn,xn)])

等式(18.1.2)指定了一個(gè) GP 先驗(yàn)。我們可以計(jì)算條件分布f(x)對(duì)于任何x給予 f(x1),…,f(xn),我們觀察到的函數(shù)值。這種條件分布稱為后驗(yàn)分布,我們用它來進(jìn)行預(yù)測(cè)。

尤其,

(18.1.3)f(x)|f(x1),…,f(xn)~N(m,s2)

在哪里

(18.1.4)m=k(x,x1:n)k(x1:n,x1:n)?1f(x1:n)
(18.1.5)s2=k(x,x)?k(x,x1:n)k(x1:n,x1:n)?1k(x,x1:n)

在哪里k(x,x1:n)是一個(gè)1×n通過評(píng)估形成的向量k(x,xi)為了i=1,…,nk(x1:n,x1:n)是一個(gè)n×n通過評(píng)估形成的矩陣k(xi,xj)為了i,j=1,…,n.m是我們可以用作任何的點(diǎn)預(yù)測(cè)器x, 和s2 是我們用于不確定性的東西:如果我們想創(chuàng)建一個(gè)有 95% 概率的區(qū)間f(x)在區(qū)間內(nèi),我們將使用 m±2s. 上述所有數(shù)字的預(yù)測(cè)方法和不確定性都是使用這些方程式創(chuàng)建的。觀察到的數(shù)據(jù)點(diǎn)由f(x1),…,f(xn)并選擇了一組細(xì)粒度的x點(diǎn)來做出預(yù)測(cè)。

假設(shè)我們觀察到一個(gè)數(shù)據(jù)點(diǎn),f(x1),我們想確定的價(jià)值f(x)在一些x. 因?yàn)?f(x)由高斯過程描述,我們知道聯(lián)合分布(f(x),f(x1))是高斯分布的:

(18.1.6)[f(x)f(x1)]~N(μ,[k(x,x)k(x,x1)k(x1,x)k(x1,x1)])

非對(duì)角表達(dá)式k(x,x1)=k(x1,x)告訴我們函數(shù)值的相關(guān)程度——確定程度 f(x)將來自f(x1). 我們已經(jīng)看到,如果我們使用大長(zhǎng)度尺度,相對(duì)于之間的距離xx1,||x?x1||,則函數(shù)值將高度相關(guān)。我們可以想象確定的過程 f(x)f(x1)無論是在功能空間,還是在聯(lián)合分布f(x1),f(x). 讓我們首先考慮一個(gè)x這樣k(x,x1)=0.9, 和 k(x,x)=1,這意味著f(x)與值適度相關(guān)f(x1). 在聯(lián)合分布中,恒定概率的等高線將是相對(duì)較窄的橢圓。

假設(shè)我們觀察f(x1)=1.2. 以這個(gè)值為條件 f(x1),我們可以畫一條水平線1.2在我們的密度圖上,可以看到f(x)主要限于[0.64,1.52]. 我們還在函數(shù)空間中繪制了這個(gè)圖,顯示了觀察點(diǎn)f(x1)橙色,高斯過程預(yù)測(cè)分布的 1 個(gè)標(biāo)準(zhǔn)差 f(x)藍(lán)色,關(guān)于的平均值1.08.

雙變量高斯密度在 :math:`f(x_1)` 和 :math:`f(x)` 上的等值線,其中 :math:`k(x,x_1) = 0.9`。函數(shù)空間中的高斯過程預(yù)測(cè)分布:math:`f(x)`,其中:math:`k(x,x_1) = 0.9`。

現(xiàn)在假設(shè)我們有更強(qiáng)的相關(guān)性,k(x,x1)=0.95. 現(xiàn)在橢圓進(jìn)一步縮小,并且值f(x)更強(qiáng)烈地決定于f(x1). 畫一條水平線在1.2,我們看到輪廓f(x)支持值主要在[0.83,1.45]. 同樣,我們還在函數(shù)空間中顯示了該圖,其中關(guān)于平均預(yù)測(cè)值的一個(gè)標(biāo)準(zhǔn)偏差1.14.

雙變量高斯密度在 :math:`f(x_1)` 和 :math:`f(x)` 上的等值線,其中 :math:`k(x,x_1) = 0.95`。函數(shù)空間中的高斯過程預(yù)測(cè)分布:math:`f(x)`,其中:math:`k(x,x_1)` = 0.95。

我們看到我們的高斯過程的后驗(yàn)均值預(yù)測(cè)器更接近于1.2,因?yàn)楝F(xiàn)在有更強(qiáng)的相關(guān)性。我們還看到我們的不確定性(誤差條)有所減少。盡管這些函數(shù)值之間存在很強(qiáng)的相關(guān)性,但我們的不確定性仍然相當(dāng)大,因?yàn)槲覀冎挥^察到一個(gè)數(shù)據(jù)點(diǎn)!

這個(gè)過程可以給我們一個(gè)后驗(yàn)f(x)對(duì)于任何 x,對(duì)于我們觀察到的任意數(shù)量的點(diǎn)。假設(shè)我們觀察 f(x1),f(x2). 我們現(xiàn)在將后驗(yàn)可視化為f(x) 在特定的x=x′在函數(shù)空間。的確切分布f(x)由上述等式給出。f(x)是高斯分布的,均值

(18.1.7)m=k(x,x1:3)k(x1:3,x1:3)?1f(x1:3)

和方差

(18.1.8)s2=k(x,x)?k(x,x1:3)k(x1:3,x1:3)?1k(x,x1:3)

在這個(gè)介紹性筆記本中,我們一直在考慮無噪聲 觀察。正如我們將看到的,很容易包含觀察噪聲。如果我們假設(shè)數(shù)據(jù)是從潛在無噪聲函數(shù)生成的f(x)加上 iid 高斯噪聲 ?(x)~N(0,σ2)有方差 σ2,那么我們的協(xié)方差函數(shù)就變成了 k(xi,xj)→k(xi,xj)+δijσ2, 在哪里 δij=1如果i=j0否則。

我們已經(jīng)開始對(duì)如何使用高斯過程指定先驗(yàn)和后驗(yàn)解以及核函數(shù)如何影響這些解的屬性有了一些直覺。在后面的notebook中,我們將準(zhǔn)確地展示如何先驗(yàn)指定高斯過程,介紹和推導(dǎo)各種核函數(shù),然后通過如何自動(dòng)學(xué)習(xí)核超參數(shù),形成高斯過程后驗(yàn)進(jìn)行預(yù)測(cè)的機(jī)制。雖然習(xí)慣“函數(shù)分布”等概念需要時(shí)間和實(shí)踐,但尋找 GP 預(yù)測(cè)方程的實(shí)際機(jī)制實(shí)際上非常簡(jiǎn)單——通過實(shí)踐可以很容易地形成對(duì)這些概念的直觀理解。

18.1.1. 概括

在典型的機(jī)器學(xué)習(xí)中,我們指定一個(gè)帶有一些自由參數(shù)(例如神經(jīng)網(wǎng)絡(luò)及其權(quán)重)的函數(shù),我們專注于估計(jì)那些可能無法解釋的參數(shù)。使用高斯過程,我們直接對(duì)函數(shù)的分布進(jìn)行推理,這使我們能夠?qū)鉀Q方案的高級(jí)屬性進(jìn)行推理。這些屬性由協(xié)方差函數(shù)(內(nèi)核)控制,該函數(shù)通常具有一些高度可解釋的超參數(shù)。這些超參數(shù)包括長(zhǎng)度尺度,它控制函數(shù)的速度(波動(dòng)程度)。另一個(gè)超參數(shù)是振幅,它控制我們的函數(shù)變化的垂直尺度。表示可以擬合數(shù)據(jù)的許多不同函數(shù),并將它們組合在一起形成預(yù)測(cè)分布,是貝葉斯方法的一個(gè)顯著特征。因?yàn)檫h(yuǎn)離數(shù)據(jù)的可能解決方案之間存在更大的可變性,所以隨著我們遠(yuǎn)離數(shù)據(jù),我們的不確定性直觀地增加。

高斯過程通過指定所有可能函數(shù)值的多元正態(tài)(高斯)分布來表示函數(shù)分布。可以輕松地操縱高斯分布以根據(jù)任何一組其他值的值找到一個(gè)函數(shù)值的分布。換句話說,如果我們觀察一組點(diǎn),那么我們可以以這些點(diǎn)為條件,并推斷函數(shù)值在任何其他輸入下的分布。我們?nèi)绾螌?duì)這些點(diǎn)之間的相關(guān)性進(jìn)行建模由協(xié)方差函數(shù)決定,并且定義了高斯過程的泛化屬性。雖然習(xí)慣高斯過程需要時(shí)間,但它們很容易使用,有很多應(yīng)用程序,并幫助我們理解和開發(fā)其他模型類,如神經(jīng)網(wǎng)絡(luò)。

18.1.2. 練習(xí)

  1. 認(rèn)知不確定性與觀察不確定性之間有什么區(qū)別?

  2. 除了變化率和幅度之外,我們可能還想考慮函數(shù)的哪些其他屬性,以及具有這些屬性的函數(shù)的真實(shí)示例是什么?

  3. 我們考慮的 RBF 協(xié)方差函數(shù)表示觀測(cè)值之間的協(xié)方差(和相關(guān)性)隨著它們?cè)谳斎肟臻g(時(shí)間、空間位置等)中的距離而減小。這是一個(gè)合理的假設(shè)嗎?為什么或者為什么不?

  4. 兩個(gè)高斯變量之和是高斯分布嗎?兩個(gè)高斯變量的乘積是高斯分布嗎?如果 (a,b) 服從聯(lián)合高斯分布,a|b (a given b) 是否服從高斯分布?是高斯分布嗎?

  5. 重復(fù)我們觀察數(shù)據(jù)點(diǎn)的練習(xí) f(x1)=1.2,但現(xiàn)在假設(shè)我們另外觀察 f(x2)=1.4. k(x,x1)=0.9, 和 k(x,x2)=0.8. 我們會(huì)或多或少地確定f(x),比我們只觀察到f(x1)我們的價(jià)值的平均值和 95% 可信集是多少f(x) 現(xiàn)在?

  6. 您認(rèn)為增加我們對(duì)觀測(cè)噪聲的估計(jì)會(huì)增加還是減少我們對(duì)地面真值函數(shù)長(zhǎng)度尺度的估計(jì)?

  7. 當(dāng)我們遠(yuǎn)離數(shù)據(jù)時(shí),假設(shè)我們的預(yù)測(cè)分布中的不確定性增加到一個(gè)點(diǎn),然后停止增加。為什么會(huì)發(fā)生這種情況?

Discussions


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • pytorch
    +關(guān)注

    關(guān)注

    2

    文章

    795

    瀏覽量

    13019
收藏 人收藏

    評(píng)論

    相關(guān)推薦

    一文了解高斯濾波器,附原理及實(shí)現(xiàn)過程

    `本文主要介紹了高斯濾波器的原理及其實(shí)現(xiàn)過程高斯濾波器是一種線性濾波器,能夠有效的抑制噪聲,平滑圖像。其作用原理和均值濾波器類似,都是取濾波器窗口內(nèi)的像素的均值作為輸出。其窗口模板的系數(shù)和均值濾波器
    發(fā)表于 09-04 08:00

    高斯過程回歸GPR和多任務(wù)高斯過程MTGP

    文章目錄高斯過程回歸多任務(wù)高斯過程文獻(xiàn)閱讀文獻(xiàn)[1]文獻(xiàn)[2]文獻(xiàn)[3]文獻(xiàn)[4]文獻(xiàn)[5]文獻(xiàn)[6]編程實(shí)現(xiàn)參考文獻(xiàn)和資料本文介紹了高斯
    發(fā)表于 06-30 06:59

    高斯-牛頓迭代法簡(jiǎn)介

    高斯牛頓迭代法簡(jiǎn)介,包括高斯牛頓迭代法推演及及結(jié)論
    發(fā)表于 01-08 16:21 ?0次下載

    監(jiān)測(cè)時(shí)間序列數(shù)據(jù)的高斯過程建模與多步預(yù)測(cè)

    針對(duì)傳感網(wǎng)環(huán)境監(jiān)測(cè)應(yīng)用采集的時(shí)間序列數(shù)據(jù),提出了一種新的基于高斯過程模型的多步預(yù)測(cè)方法,實(shí)現(xiàn)了對(duì)未來時(shí)刻的環(huán)境監(jiān)測(cè)數(shù)據(jù)的預(yù)測(cè)。高斯過程模型通過核函數(shù)描述數(shù)據(jù)的特性,通過對(duì)環(huán)境監(jiān)測(cè)數(shù)據(jù)的
    發(fā)表于 03-08 10:12 ?1次下載

    高斯濾波簡(jiǎn)介,高斯濾波性質(zhì)及應(yīng)用

    二維高斯函數(shù)具有旋轉(zhuǎn)對(duì)稱性,即濾波器在各個(gè)方向上的平滑程度是相同的。一般來說,一幅圖像的邊緣方向是事先不知道的,因此,在濾波前是無法確定一個(gè)方向上比另一方向上需要更多的平滑。旋轉(zhuǎn)對(duì)稱性意味著高斯平滑濾波器在后續(xù)邊緣檢測(cè)中不會(huì)偏向任一方向。
    的頭像 發(fā)表于 04-09 15:54 ?2.5w次閱讀
    <b class='flag-5'>高斯</b>濾波<b class='flag-5'>簡(jiǎn)介</b>,<b class='flag-5'>高斯</b>濾波性質(zhì)及應(yīng)用

    高斯過程隱變量模型及相關(guān)實(shí)踐

    高斯過程隱變量模型(GPLⅴM)作為一種無監(jiān)督的貝葉斯非參數(shù)降維模型,無法有效利用數(shù)據(jù)所包含的語義標(biāo)記信息,同時(shí)其建模過程中假設(shè)觀測(cè)變量的各特征相互獨(dú)立,忽略了特征之間的空間結(jié)構(gòu)信息。為解決上述問題
    發(fā)表于 03-11 16:01 ?8次下載

    什么是高斯過程 神經(jīng)網(wǎng)絡(luò)高斯過程解析

    神經(jīng)網(wǎng)絡(luò)是怎么和高斯過程聯(lián)系在一起的呢?Lee et al. [1] and Neal [2] 指出,隨機(jī)初始化無限寬網(wǎng)絡(luò)的參數(shù)會(huì)產(chǎn)生一個(gè)高斯過程,稱作神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 08-10 11:25 ?4241次閱讀

    PyTorch教程簡(jiǎn)介

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程簡(jiǎn)介.pdf》資料免費(fèi)下載
    發(fā)表于 06-02 14:12 ?14次下載
    <b class='flag-5'>PyTorch</b>教程<b class='flag-5'>簡(jiǎn)介</b>

    PyTorch教程18.1高斯過程簡(jiǎn)介

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程18.1高斯過程簡(jiǎn)介.pdf》資料免費(fèi)下載
    發(fā)表于 06-05 10:46 ?0次下載
    <b class='flag-5'>PyTorch</b>教程<b class='flag-5'>18.1</b>之<b class='flag-5'>高斯</b><b class='flag-5'>過程</b><b class='flag-5'>簡(jiǎn)介</b>

    PyTorch教程18.2之高斯過程先驗(yàn)

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程18.2之高斯過程先驗(yàn).pdf》資料免費(fèi)下載
    發(fā)表于 06-05 10:47 ?0次下載
    <b class='flag-5'>PyTorch</b>教程18.2之<b class='flag-5'>高斯</b><b class='flag-5'>過程</b>先驗(yàn)

    PyTorch教程18.3之高斯過程推理

    電子發(fā)燒友網(wǎng)站提供《PyTorch教程18.3之高斯過程推理.pdf》資料免費(fèi)下載
    發(fā)表于 06-05 10:48 ?0次下載
    <b class='flag-5'>PyTorch</b>教程18.3之<b class='flag-5'>高斯</b><b class='flag-5'>過程</b>推理

    PyTorch教程-18.2. 高斯過程先驗(yàn)

    18.2. 高斯過程先驗(yàn)? Colab [火炬]在 Colab 中打開筆記本 Colab [mxnet] Open the notebook in Colab Colab [jax
    的頭像 發(fā)表于 06-05 15:44 ?722次閱讀
    <b class='flag-5'>PyTorch</b>教程-18.2. <b class='flag-5'>高斯</b><b class='flag-5'>過程</b>先驗(yàn)

    PyTorch教程-18.3。高斯過程推理

    18.3。高斯過程推理? Colab [火炬]在 Colab 中打開筆記本 Colab [mxnet] Open the notebook in Colab Colab [jax
    的頭像 發(fā)表于 06-05 15:44 ?890次閱讀
    <b class='flag-5'>PyTorch</b>教程-18.3。<b class='flag-5'>高斯</b><b class='flag-5'>過程</b>推理

    解讀PyTorch模型訓(xùn)練過程

    PyTorch作為一個(gè)開源的機(jī)器學(xué)習(xí)庫(kù),以其動(dòng)態(tài)計(jì)算圖、易于使用的API和強(qiáng)大的靈活性,在深度學(xué)習(xí)領(lǐng)域得到了廣泛的應(yīng)用。本文將深入解讀PyTorch模型訓(xùn)練的全過程,包括數(shù)據(jù)準(zhǔn)備、模型構(gòu)建、訓(xùn)練循環(huán)、評(píng)估與保存等關(guān)鍵步驟,并結(jié)合
    的頭像 發(fā)表于 07-03 16:07 ?594次閱讀

    PyTorch神經(jīng)網(wǎng)絡(luò)模型構(gòu)建過程

    PyTorch,作為一個(gè)廣泛使用的開源深度學(xué)習(xí)庫(kù),提供了豐富的工具和模塊,幫助開發(fā)者構(gòu)建、訓(xùn)練和部署神經(jīng)網(wǎng)絡(luò)模型。在神經(jīng)網(wǎng)絡(luò)模型中,輸出層是尤為關(guān)鍵的部分,它負(fù)責(zé)將模型的預(yù)測(cè)結(jié)果以合適的形式輸出。以下將詳細(xì)解析PyTorch中神經(jīng)網(wǎng)絡(luò)輸出層的特性及整個(gè)模型的構(gòu)建
    的頭像 發(fā)表于 07-10 14:57 ?312次閱讀