0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

淺析機(jī)器學(xué)習(xí)的前沿技術(shù)及技術(shù)趨勢

電子工程師 ? 來源:未知 ? 作者:胡薇 ? 2018-11-25 09:16 ? 次閱讀

分布式機(jī)器學(xué)習(xí)并非分布式處理技術(shù)與機(jī)器學(xué)習(xí)的簡單結(jié)合。一方面,它必須考慮機(jī)器學(xué)習(xí)模型構(gòu)成與算法流程本身的特點(diǎn),否則分布式處理的結(jié)果可能失之毫厘、謬以千里;另一方面,機(jī)器學(xué)習(xí)內(nèi)含的算法隨機(jī)性、參數(shù)冗余性等,又會帶來一般分布式處理過程所不具備的、宜于專門利用的便利。

線性模型

線性模型是最簡單的,也是最基本的機(jī)器學(xué)習(xí)模型。其數(shù)學(xué)形式如下:g(x;w)=。有時,我們還會在的基礎(chǔ)上額外加入一個偏置項b,不過只要把x擴(kuò)展出一維常數(shù)分量,就可以把帶偏置項的線性函數(shù)歸并到的形式之中。線性模型非常簡單明了,參數(shù)的每一維對應(yīng)了相應(yīng)特征維度的重要性。但是很顯然,線性模型也存在一定的局限性。

首先,線性模型的取值范圍是不受限的,依據(jù)w和x的具體取值,它的輸出可以是非常大的正數(shù)或者非常小的負(fù)數(shù)。然而,在進(jìn)行分類的時候,我們預(yù)期得到的模型輸出是某個樣本屬于正類(如正面評價)的可能性,這個可能性通常是取值在0和1之間的一個概率值。為了解決這二者之間的差距,人們通常會使用一個對數(shù)幾率函數(shù)對線性模型的輸出進(jìn)行變換,得到如下公式:

經(jīng)過變換,嚴(yán)格地講,g(x;w)已經(jīng)不再是一個線性函數(shù),而是由一個線性函數(shù)派生出來的非線性函數(shù),我們通常稱這類函數(shù)為廣義線性函數(shù)。對數(shù)幾率模型本身是一個概率形式,非常適合用對數(shù)似然損失或者交叉熵?fù)p失進(jìn)行訓(xùn)練。

其次,線性模型只能挖掘特征之間的線性組合關(guān)系,無法對更加復(fù)雜、更加強(qiáng)大的非線性組合關(guān)系進(jìn)行建模。為了解決這個問題,我們可以對輸入的各維特征進(jìn)行一些顯式的非線性預(yù)變換(如單維特征的指數(shù)、對數(shù)、多項式變換,以及多維特征的交叉乘積等),或者采用核方法把原特征空間隱式地映射到一個高維的非線性空間,再在高維空間里構(gòu)建線性模型。

核方法與支持向量機(jī)

核方法的基本思想是通過一個非線性變換,把輸入數(shù)據(jù)映射到高維的希爾伯特空間中,在這個高維空間里,那些在原始輸入空間中線性不可分的問題變得更加容易解決,甚至線性可分。支持向量機(jī)(Support Vector Machine,SVM)[10]是一類最典型的核方法,下面將以支持向量機(jī)為例,對核方法進(jìn)行簡單的介紹。

支持向量機(jī)的基本思想是通過核函數(shù)將原始輸入空間變換成一個高維(甚至是無窮維)的空間,在這個空間里尋找一個超平面,它可以把訓(xùn)練集里的正例和負(fù)例盡最大可能地分開(用更加學(xué)術(shù)的語言描述,就是正負(fù)例之間的間隔最大化)。那么如何才能通過核函數(shù)實(shí)現(xiàn)空間的非線性映射呢?讓我們從頭談起。

假設(shè)存在一個非線性映射函數(shù)Φ,可以幫我們把原始輸入空間變換成高維非線性空間。我們的目的是在變換后的空間里,尋找一個線性超平面,它能夠把所有正例和負(fù)例分開,并且距離該超平面最近的正例和負(fù)例之間的間隔最大。這個訴求可以用數(shù)學(xué)語言表述如下:

其中,是離超平面最近的正例和負(fù)例之間的間隔(如圖2.6所示)。

圖2.6最大化間隔與支持向量機(jī)

以上的數(shù)學(xué)描述等價于如下的優(yōu)化問題:min12w2

上式中的約束條件要求所有的正例和負(fù)例分別位于超平面的兩側(cè)。某些情況下,這種約束可能過強(qiáng),因?yàn)槲覀兯鶕碛械挠?xùn)練集有時是不可分的。這時候,就需要引入松弛變量,把上述優(yōu)化問題改寫為:

其實(shí)這種新的表述等價于最小化一個加了正則項的Hinge損失函數(shù)。這是因?yàn)楫?dāng)小于0的時候,樣本被超平面正確地分到相應(yīng)的類別里,ξi=0;反之,ξi將大于0,且是的上界:最小化ξi就相應(yīng)地最小化了?;谝陨嫌懻?,其實(shí)支持向量機(jī)在最小化如下的目標(biāo)函數(shù):

其中,是正則項,對它的最小化可以限制模型的空間,有效提高模型的泛化能力(也就是使模型在訓(xùn)練集和測試集上的性能更加接近)。

為了求解上述有約束的優(yōu)化問題,一種常用的技巧是使用拉格朗日乘數(shù)法將其轉(zhuǎn)換成對偶問題進(jìn)行求解。具體來講,支持向量機(jī)對應(yīng)的對偶問題如下:

在對偶空間里,該優(yōu)化問題的描述只與的內(nèi)積有關(guān),而與映射函數(shù)本身的具體形式無關(guān)。因此,我們只需定義兩個樣本之間的核函數(shù)k(xi,xj),用以表征其映射到高維空間之后的內(nèi)積即可:

至此,我們弄清楚了核函數(shù)是如何和空間變換發(fā)生聯(lián)系的。核函數(shù)可以有很多不同的選擇,表2.1列出了幾種常用的核函數(shù)。

事實(shí)上,只要一個對稱函數(shù)所對應(yīng)的核矩陣滿足半正定的條件,它就能作為核函數(shù)使用,并總能找到一個與之對應(yīng)的空間映射。換言之,任何一個核函數(shù)都隱式地定義了一個“再生核希爾伯特空間”(Reproducing Kernel Hilbert Space,RKHS)。在這個空間里,兩個向量的內(nèi)積等于對應(yīng)核函數(shù)的值。

決策樹與Boosting

決策樹也是一類常見的機(jī)器學(xué)習(xí)模型,它的基本思想是根據(jù)數(shù)據(jù)的屬性構(gòu)造出樹狀結(jié)構(gòu)的決策模型。一棵決策樹包含一個根節(jié)點(diǎn)、若干內(nèi)部節(jié)點(diǎn),以及若干葉子節(jié)點(diǎn)。葉子節(jié)點(diǎn)對應(yīng)最終的決策結(jié)果,而其他節(jié)點(diǎn)則針對數(shù)據(jù)的某種屬性進(jìn)行判斷與分支:在這樣的節(jié)點(diǎn)上,會對數(shù)據(jù)的某個屬性(特征)進(jìn)行檢測,依據(jù)檢測結(jié)果把樣本劃分到該節(jié)點(diǎn)的某棵子樹之中。通過決策樹,我們可以從根節(jié)點(diǎn)出發(fā),把一個具體的樣本最終分配到某個葉子節(jié)點(diǎn)上,實(shí)現(xiàn)相應(yīng)的預(yù)測功能。

因?yàn)樵诿總€節(jié)點(diǎn)上的分支操作是非線性的,因此決策樹可以實(shí)現(xiàn)比較復(fù)雜的非線性映射。決策樹算法的目的是根據(jù)訓(xùn)練數(shù)據(jù),學(xué)習(xí)出一棵泛化能力較強(qiáng)的決策樹,也就是說,它能夠很好地把未知樣本分到正確的葉子節(jié)點(diǎn)上。為了達(dá)到這個目的,我們在訓(xùn)練過程中構(gòu)建的決策樹不能太復(fù)雜,否則可能會過擬合到訓(xùn)練數(shù)據(jù)上,而無法正確地處理未知的測試數(shù)據(jù)。常見的決策樹算法包括:分類及回歸樹(CART)[21],ID3算法[11],C4.5算法[22],決策樹樁(Decision Stump)[23]等。這些算法的基本流程都比較類似,包括劃分選擇和剪枝處理兩個基本步驟。

劃分選擇要解決的問題是如何根據(jù)某種準(zhǔn)則在某個節(jié)點(diǎn)上把數(shù)據(jù)集里的樣本分到它的一棵子樹上。常用的準(zhǔn)則有:信息增益、增益率、基尼系數(shù)等。其具體數(shù)學(xué)形式雖有差別,但是核心思想大同小異。這里我們就以信息增益為例進(jìn)行介紹。所謂信息增益,指的是在某個節(jié)點(diǎn)上,用特征j對數(shù)據(jù)集D進(jìn)行劃分得到的樣本集合的純度提升的程度。信息增益的具體數(shù)學(xué)定義如下:

其中,是特征的取值集合,而是特征取值為的那些樣本所組成的子集;Entropy(D)是樣本集合D的信息熵,描述的是D中來自不同類別的樣本的分布情況。不同類別的樣本分布越平均,則信息熵越大,集合純度越低;相反,樣本分布越集中,則信息熵越小,集合純度越高。樣本劃分的目的是找到使得劃分后平均信息熵變得最小的特征,從而使得信息增益最大。

剪枝處理要解決的問題是抑制過擬合。如果決策樹非常復(fù)雜,每個葉子節(jié)點(diǎn)上只對應(yīng)一個訓(xùn)練樣本,一定可以實(shí)現(xiàn)信息增益最大化,可這樣的后果是對訓(xùn)練數(shù)據(jù)的過擬合,將導(dǎo)致在測試數(shù)據(jù)上的精度損失。為了解決這個問題,可以采取剪枝的操作降低決策樹的復(fù)雜度。剪枝處理有預(yù)剪枝和后剪枝之分:預(yù)剪枝指的是在決策樹生成過程中,對每個節(jié)點(diǎn)在劃分前先進(jìn)行估計,如果當(dāng)前節(jié)點(diǎn)的劃分不能帶來決策樹泛化性能的提升(通??梢酝ㄟ^一個交叉驗(yàn)證集來評估泛化能力),則停止劃分并且將當(dāng)前節(jié)點(diǎn)標(biāo)記為葉子節(jié)點(diǎn);后剪枝指的是先從訓(xùn)練集中生成一棵完整的決策樹,然后自底向上地考察去掉每個節(jié)點(diǎn)(即將該節(jié)點(diǎn)及其子樹合并成為一個葉子節(jié)點(diǎn))以后泛化能力是否有所提高,若有提高,則進(jìn)行剪枝。

在某些情況下,由于學(xué)習(xí)任務(wù)難度大,單棵決策樹的性能會捉襟見肘,這時人們常常會使用集成學(xué)習(xí)來提升最終的學(xué)習(xí)能力。集成學(xué)習(xí)有很多方法,如Bagging[24]、Boosting[25]等。Boosting的基本思路是先訓(xùn)練出一個弱學(xué)習(xí)器,再根據(jù)弱學(xué)習(xí)器的表現(xiàn)對訓(xùn)練樣本的分布進(jìn)行調(diào)整,使得原來弱學(xué)習(xí)器無法搞定的錯誤樣本在后續(xù)的學(xué)習(xí)過程中得到更多的關(guān)注,然后再根據(jù)調(diào)整后的樣本分布來訓(xùn)練下一個弱學(xué)習(xí)器。如此循環(huán)往復(fù),直到最終學(xué)到的弱學(xué)習(xí)器的數(shù)目達(dá)到預(yù)設(shè)的上限,或者弱學(xué)習(xí)器的加權(quán)組合能夠達(dá)到預(yù)期的精度為止。最終的預(yù)測模型是所有這些弱學(xué)習(xí)器的加權(quán)求和:

其中,是加權(quán)系數(shù),它既可以在訓(xùn)練過程中根據(jù)當(dāng)前弱學(xué)習(xí)器的準(zhǔn)確程度利用經(jīng)驗(yàn)公式求得,也可以在訓(xùn)練過程結(jié)束后(各個弱學(xué)習(xí)器都已經(jīng)訓(xùn)練好以后),再利用新的學(xué)習(xí)目標(biāo)通過額外的優(yōu)化手段求得。

有研究表明Boosting在抵抗過擬合方面有非常好的表現(xiàn),也就是說,隨著訓(xùn)練過程的推進(jìn),即便在訓(xùn)練集上已經(jīng)把誤差降到0,更多的迭代還是可以提高模型在測試集上的性能。人們用間隔定理(Margin Theory)[26]來解釋這種現(xiàn)象——隨著迭代進(jìn)一步推進(jìn),雖然訓(xùn)練集上的誤差已經(jīng)不再變化,但是訓(xùn)練樣本上的分類置信度(對應(yīng)于每個樣本點(diǎn)上的間隔)卻仍在不斷變大。到今天為止,Boosting算法,尤其是與決策樹相結(jié)合的算法如梯度提升決策樹(GBDT)[27]仍然在實(shí)際應(yīng)用中挑著大梁,是很多數(shù)據(jù)挖掘比賽的奪冠熱門。

神經(jīng)網(wǎng)絡(luò)

神經(jīng)網(wǎng)絡(luò)是一類典型的非線性模型,它的設(shè)計受到生物神經(jīng)網(wǎng)絡(luò)的啟發(fā)。人們通過對大腦生物機(jī)理的研究,發(fā)現(xiàn)其基本單元是神經(jīng)元,每個神經(jīng)元通過樹突從上游的神經(jīng)元那里獲取輸入信號,經(jīng)過自身的加工處理后,再通過軸突將輸出信號傳遞給下游的神經(jīng)元。當(dāng)神經(jīng)元的輸入信號總和達(dá)到一定強(qiáng)度時,就會激活一個輸出信號,否則就沒有輸出信號(如圖2.7a所示)。

圖2.7神經(jīng)元結(jié)構(gòu)與人工神經(jīng)網(wǎng)絡(luò)

這種生物學(xué)原理如果用數(shù)學(xué)語言進(jìn)行表達(dá),就如圖2.7b所示。神經(jīng)元對輸入的信號進(jìn)行線性加權(quán)求和:,然后依據(jù)求和結(jié)果的大小來驅(qū)動一個激活函數(shù)ψ,用以生成輸出信號。生物系統(tǒng)中的激活函數(shù)類似于階躍函數(shù):

但是,由于階躍函數(shù)本身不連續(xù),對于機(jī)器學(xué)習(xí)而言不是一個好的選擇,因此在人們設(shè)計人工神經(jīng)網(wǎng)絡(luò)的時候通常采用連續(xù)的激活函數(shù),比如Sigmoid函數(shù)、雙曲正切函數(shù)(tanh)、校正線性單元(ReLU)等。它們的數(shù)學(xué)形式和函數(shù)形狀分別如圖2.8所示。

圖2.8常用的激活函數(shù)

1.全連接神經(jīng)網(wǎng)絡(luò)

最基本的神經(jīng)網(wǎng)絡(luò)就是把前面描述的神經(jīng)元互相連接起來,形成層次結(jié)構(gòu)(如圖2.9所示),我們稱之為全連接神經(jīng)網(wǎng)絡(luò)。對于圖2.9中這個網(wǎng)絡(luò)而言,最左邊對應(yīng)的是輸入節(jié)點(diǎn),最右邊對應(yīng)的是輸出節(jié)點(diǎn),中間的三層節(jié)點(diǎn)都是隱含節(jié)點(diǎn)(我們把相應(yīng)的層稱為隱含層)。每一個隱含節(jié)點(diǎn)都會把來自上一層節(jié)點(diǎn)的輸出進(jìn)行加權(quán)求和,再經(jīng)過一個非線性的激活函數(shù),輸出給下一層。而輸出層則一般采用簡單的線性函數(shù),或者進(jìn)一步使用softmax函數(shù)將輸出變成概率形式。

圖2.9全連接神經(jīng)網(wǎng)絡(luò)

全連接神經(jīng)網(wǎng)絡(luò)雖然看起來簡單,但它有著非常強(qiáng)大的表達(dá)能力。早在20世紀(jì)80年代,人們就證明了著名的通用逼近定理(Universal Approximation Theorem[28])。最早的通用逼近定理是針對Sigmoid激活函數(shù)證明的,一般情況下的通用逼近定理在2001年被證明[29]。其數(shù)學(xué)描述是,在激活函數(shù)滿足一定條件的前提下,任意給定輸入空間中的一個連續(xù)函數(shù)和近似精度ε,存在自然數(shù)Nε和一個隱含節(jié)點(diǎn)數(shù)為Nε的單隱層全連接神經(jīng)網(wǎng)絡(luò),對這個連續(xù)函數(shù)的-逼近精度小于ε。這個定理非常重要,它告訴我們?nèi)B接神經(jīng)網(wǎng)絡(luò)可以用來解決非常復(fù)雜的問題,當(dāng)其他的模型(如線性模型、支持向量機(jī)等)無法逼近這類問題的分類界面時,神經(jīng)網(wǎng)絡(luò)仍然可以所向披靡、得心應(yīng)手。近年來,人們指出深層網(wǎng)絡(luò)的表達(dá)力更強(qiáng),即表達(dá)某些邏輯函數(shù),深層網(wǎng)絡(luò)需要的隱含節(jié)點(diǎn)數(shù)比淺層網(wǎng)絡(luò)少很多[30]。這對于模型存儲和優(yōu)化而言都是比較有利的,因此人們越來越關(guān)注和使用更深層的神經(jīng)網(wǎng)絡(luò)。

全連接神經(jīng)網(wǎng)絡(luò)在訓(xùn)練過程中常常選取交叉熵?fù)p失函數(shù),并且使用梯度下降法來求解模型參數(shù)(實(shí)際中為了減少每次模型更新的代價,使用的是小批量的隨機(jī)梯度下降法)。要注意的是,雖然交叉熵?fù)p失是個凸函數(shù),但由于多層神經(jīng)網(wǎng)絡(luò)本身的非線性和非凸本質(zhì),損失函數(shù)對于模型參數(shù)而言其實(shí)是嚴(yán)重非凸的。在這種情況下,使用梯度下降法求解通常只能找到局部最優(yōu)解。為了解決這個問題,人們在實(shí)踐中常常采用多次隨機(jī)初始化或者模擬退火等技術(shù)來尋找全局意義下更優(yōu)的解。近年有研究表明,在滿足一定條件時,如果神經(jīng)網(wǎng)絡(luò)足夠深,它的所有局部最優(yōu)解其實(shí)都和全局最優(yōu)解具有非常類似的損失函數(shù)值[31]。換言之,對于深層神經(jīng)網(wǎng)絡(luò)而言,“只能找到局部最優(yōu)解”未見得是一個致命的缺陷,在很多時候這個局部最優(yōu)解已經(jīng)足夠好,可以達(dá)到非常不錯的實(shí)際預(yù)測精度。

除了局部最優(yōu)解和全局最優(yōu)解的憂慮之外,其實(shí)關(guān)于使用深層神經(jīng)網(wǎng)絡(luò)還有另外兩個困難。

首先,因?yàn)樯顚由窠?jīng)網(wǎng)絡(luò)的表達(dá)能力太強(qiáng),很容易過擬合到訓(xùn)練數(shù)據(jù)上,導(dǎo)致其在測試數(shù)據(jù)上表現(xiàn)欠佳。為了解決這個問題,人們提出了很多方法,包括DropOut[32]、數(shù)據(jù)擴(kuò)張(Data Augmentation)[33]、批量歸一化(Batch Normalization)[34]、權(quán)值衰減(Weight Decay)[35]、提前終止(Early Stopping)[36]等,通過在訓(xùn)練過程中引入隨機(jī)性、偽訓(xùn)練樣本或限定模型空間來提高模型的泛化能力。

其次,當(dāng)網(wǎng)絡(luò)很深時,輸出層的預(yù)測誤差很難順利地逐層傳遞下去,從而使得靠近輸入層的那些隱含層無法得到充分的訓(xùn)練。這個問題又稱為“梯度消減”問題[37]。研究表明,梯度消減主要是由神經(jīng)網(wǎng)絡(luò)的非線性激活函數(shù)帶來的,因?yàn)榉蔷€性激活函數(shù)導(dǎo)數(shù)的模都不太大,在使用梯度下降法進(jìn)行優(yōu)化的時候,非線性激活函數(shù)導(dǎo)數(shù)的逐層連乘會出現(xiàn)在梯度的計算公式中,從而使梯度的幅度逐層減小。為了解決這個問題,人們在跨層之間引入了線性直連,或者由門電路控制的線性通路[38],以期為梯度信息的順利回傳提供便利。

2.卷積神經(jīng)網(wǎng)絡(luò)

除了全連接神經(jīng)網(wǎng)絡(luò)以外,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)[13]也是十分常用的網(wǎng)絡(luò)結(jié)構(gòu),尤其適用于處理圖像數(shù)據(jù)。

卷積神經(jīng)網(wǎng)絡(luò)的設(shè)計是受生物視覺系統(tǒng)的啟發(fā)。研究表明每個視覺細(xì)胞只對于局部的小區(qū)域敏感,而大量視覺細(xì)胞平鋪在視野中,可以很好地利用自然圖像的空間局部相關(guān)性。與此類似,卷積神經(jīng)網(wǎng)絡(luò)也引入局部連接的概念,并且在空間上平鋪具有同樣參數(shù)結(jié)構(gòu)的濾波器(也稱為卷積核)。這些濾波器之間有很大的重疊區(qū)域,相當(dāng)于有個空域滑窗,在滑窗滑到不同空間位置時,對這個窗內(nèi)的信息使用同樣的濾波器進(jìn)行分析。這樣雖然網(wǎng)絡(luò)很大,但是由于不同位置的濾波器共享參數(shù),其實(shí)模型參數(shù)的個數(shù)并不多,參數(shù)效率很高。

圖2.10描述了一個2×2的卷積核將輸入圖像進(jìn)行卷積的例子。所謂卷積就是卷積核的各個參數(shù)和圖像中空間位置對應(yīng)的像素值進(jìn)行點(diǎn)乘再求和。經(jīng)過了卷積操作之后,會得到一個和原圖像類似大小的新圖層,其中的每個點(diǎn)都是卷積核在某空間局部區(qū)域的作用結(jié)果(可能對應(yīng)于提取圖像的邊緣或抽取更加高級的語義信息)。我們通常稱這個新圖層為特征映射(feature map)。對于一幅圖像,可以在一個卷積層里使用多個不同的卷積核,從而形成多維的特征映射;還可以把多個卷積層級聯(lián)起來,不斷抽取越來越復(fù)雜的語義信息。

圖2.10卷積過程示意圖

除了卷積以外,池化也是卷積神經(jīng)網(wǎng)絡(luò)的重要組成部分。池化的目的是對原特征映射進(jìn)行壓縮,從而更好地體現(xiàn)圖像識別的平移不變性,并且有效擴(kuò)大后續(xù)卷積操作的感受野。池化與卷積不同,一般不是參數(shù)化的模塊,而是用確定性的方法求出局部區(qū)域內(nèi)的平均值、中位數(shù),或最大值、最小值(近年來,也有一些學(xué)者開始研究參數(shù)化的池化算子[39])。圖2.11描述了對圖像局部進(jìn)行2×2的最大值池化操作后的效果。

圖2.11池化操作示意圖

在實(shí)際操作中,可以把多個卷積層和多個池化層交替級聯(lián),從而實(shí)現(xiàn)從原始圖像中不斷抽取高層語義特征的目的。在此之后,還可以再級聯(lián)一個全連接網(wǎng)絡(luò),在這些高層語義特征的基礎(chǔ)上進(jìn)行模式識別或預(yù)測。這個過程如圖2.12所示。

圖2.12多層卷積神經(jīng)網(wǎng)絡(luò)(N1,N2,N3表示對應(yīng)單元重復(fù)的次數(shù))

實(shí)踐中,人們開始嘗試使用越來越深的卷積神經(jīng)網(wǎng)絡(luò),以達(dá)到越來越好的圖像分類效果。圖2.13描述了近年來人們在ImageNet數(shù)據(jù)集上不斷通過增加網(wǎng)絡(luò)深度刷新錯誤率的歷程。其中2015年來自微軟研究院的深達(dá)152層的ResNet網(wǎng)絡(luò)[40],在ImageNet數(shù)據(jù)集上取得了低達(dá)3.57%的Top-5錯誤率,在特定任務(wù)上超越了普通人類的圖像識別能力。

圖2.13卷積神經(jīng)網(wǎng)絡(luò)不斷刷新ImageNet數(shù)據(jù)集的識別結(jié)果

圖2.14殘差學(xué)習(xí)

隨著卷積神經(jīng)網(wǎng)絡(luò)變得越來越深,前面提到的梯度消減問題也隨之變得越來越顯著,給模型的訓(xùn)練帶來了很大難度。為了解決這個問題,近年來人們提出了一系列的方法,包括殘差學(xué)習(xí)[40-41](如圖2.14所示)、高密度網(wǎng)絡(luò)[42](如圖2.15所示)等。實(shí)驗(yàn)表明:這些方法可以有效地把訓(xùn)練誤差傳遞到靠近輸入層的地方,為深層卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練奠定了堅實(shí)的實(shí)踐基礎(chǔ)。

圖2.15高密度網(wǎng)絡(luò)

3.循環(huán)神經(jīng)網(wǎng)絡(luò)

循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)[14]的設(shè)計也有很強(qiáng)的仿生學(xué)基礎(chǔ)。我們可以聯(lián)想一下自己如何讀書看報。當(dāng)我們閱讀一個句子時,不會單純地理解當(dāng)前看到的那個字本身,相反我們之前讀到的文字會在腦海里形成記憶,而這些記憶會幫助我們更好地理解當(dāng)前看到的文字。這個過程是遞歸的,我們在看下一個文字時,當(dāng)前文字和歷史記憶又會共同成為我們新的記憶,并對我們理解下一個文字提供幫助。其實(shí),循環(huán)神經(jīng)網(wǎng)絡(luò)的設(shè)計基本就是依照這個思想。我們用表示在時刻的記憶,它是由t時刻看到的輸入時刻的記憶st-1共同作用產(chǎn)生的。這個過程可以用下式加以表示:

很顯然,這個式子里蘊(yùn)含著對于記憶單元的循環(huán)迭代。在實(shí)際應(yīng)用中,無限長時間的循環(huán)迭代并沒有太大意義。比如,當(dāng)我們閱讀文字的時候,每個句子的平均長度可能只有十幾個字。因此,我們完全可以把循環(huán)神經(jīng)網(wǎng)絡(luò)在時域上展開,然后在展開的網(wǎng)絡(luò)上利用梯度下降法來求得參數(shù)矩陣U、W、V,如圖2.16所示。用循環(huán)神經(jīng)網(wǎng)絡(luò)的術(shù)語,我們稱之為時域反向傳播(Back Propagation Through Time,BPTT)。

圖2.16循環(huán)神經(jīng)網(wǎng)絡(luò)的展開

和全連接神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)類似,當(dāng)循環(huán)神經(jīng)網(wǎng)絡(luò)時域展開以后,也會遇到梯度消減的問題。為了解決這個問題,人們提出了一套依靠門電路來控制信息流通的方法。也就是說,在循環(huán)神經(jīng)網(wǎng)絡(luò)的兩層之間同時存在線性和非線性通路,而哪個通路開、哪個通路關(guān)或者多大程度上開關(guān)則由一組門電路來控制。這個門電路也是帶參數(shù)并且這些參數(shù)在神經(jīng)網(wǎng)絡(luò)的優(yōu)化過程中是可學(xué)習(xí)的。比較著名的兩類方法是LSTM[43]和GRU[44](如圖2.17所示)。GRU相比LSTM更加簡單一些,LSTM有三個門電路(輸入門、忘記門、輸出門),而GRU則有兩個門電路(重置門、更新門),二者在實(shí)際中的效果類似,但GRU的訓(xùn)練速度要快一些,因此近年來有變得更加流行的趨勢。

圖2.17循環(huán)神經(jīng)網(wǎng)絡(luò)中的門電路

循環(huán)神經(jīng)網(wǎng)絡(luò)可以對時間序列進(jìn)行有效建模,根據(jù)它所處理的序列的不同情況,可以把循環(huán)神經(jīng)網(wǎng)絡(luò)的應(yīng)用場景分為點(diǎn)到序列、序列到點(diǎn)和序列到序列等類型(如圖2.18所示)。

圖2.18循環(huán)神經(jīng)網(wǎng)絡(luò)的不同應(yīng)用

下面分別介紹幾種循環(huán)神經(jīng)網(wǎng)絡(luò)的應(yīng)用場景。

(1)圖像配文字:點(diǎn)到序列的循環(huán)神經(jīng)網(wǎng)絡(luò)應(yīng)用

在這個應(yīng)用中,輸入的是圖像的編碼信息(可以通過卷積神經(jīng)網(wǎng)絡(luò)的中間層獲得,也可以直接采用卷積神經(jīng)網(wǎng)絡(luò)預(yù)測得到的類別標(biāo)簽),輸出則是靠循環(huán)神經(jīng)網(wǎng)絡(luò)來驅(qū)動產(chǎn)生的一句自然語言文本,用以描述該圖像包含的內(nèi)容。

(2)情感分類:序列到點(diǎn)的循環(huán)神經(jīng)網(wǎng)絡(luò)應(yīng)用

在這個應(yīng)用中,輸入的是一段文本信息(時序序列),而輸出的是情感分類的標(biāo)簽(正向情感或反向情感)。循環(huán)神經(jīng)網(wǎng)絡(luò)用于分析輸入的文本,其隱含節(jié)點(diǎn)包含了整個輸入語句的編碼信息,再通過一個全連接的分類器把該編碼信息映射到合適的情感類別之中。

(3)機(jī)器翻譯:序列到序列的循環(huán)神經(jīng)網(wǎng)絡(luò)應(yīng)用

在這個應(yīng)用中,輸入的是一個語言的文本(時序序列),而輸出的則是另一個語言的文本(時序序列)。循環(huán)神經(jīng)網(wǎng)絡(luò)在這個應(yīng)用中被使用了兩次:第一次是用來對輸入的源語言文本進(jìn)行分析和編碼;而第二次則是利用這個編碼信息驅(qū)動輸出目標(biāo)語言的一段文本。

在使用序列到序列的循環(huán)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)機(jī)器翻譯時,在實(shí)踐中會遇到一個問題。輸出端翻譯結(jié)果中的某個詞其實(shí)對于輸入端各個詞匯的依賴程度是不同的,通過把整個輸入句子編碼到一個向量來驅(qū)動輸出的句子,會導(dǎo)致信息粒度太粗糙,或者長線的依賴關(guān)系被忽視。為了解決這個問題,人們在標(biāo)準(zhǔn)的序列到序列循環(huán)神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)上引入了所謂“注意力機(jī)制”。在它的幫助下,輸出端的每個詞的產(chǎn)生會利用到輸入端不同詞匯的編碼信息。而這種注意力機(jī)制也是帶參數(shù)的,可以在整個循環(huán)神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程中自動習(xí)得。

神經(jīng)網(wǎng)絡(luò)尤其是深層神經(jīng)網(wǎng)絡(luò)是一個高速發(fā)展的研究領(lǐng)域。隨著整個學(xué)術(shù)界和工業(yè)界的持續(xù)關(guān)注,這個領(lǐng)域比其他的機(jī)器學(xué)習(xí)領(lǐng)域獲得了更多的發(fā)展機(jī)會,不斷有新的網(wǎng)絡(luò)結(jié)構(gòu)或優(yōu)化方法被提出。如果讀者對于這個領(lǐng)域感興趣,請關(guān)注每年發(fā)表在機(jī)器學(xué)習(xí)主流學(xué)術(shù)會議上的最新論文。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:一文掌握常用的機(jī)器學(xué)習(xí)模型(文末福利)

文章出處:【微信號:rgznai100,微信公眾號:rgznai100】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    影響未來的六大前沿技術(shù)

    對未來影響最大的六項前沿技術(shù)。它們涉及腦科學(xué)、新材料、機(jī)器人、醫(yī)藥應(yīng)用、納米技術(shù)、災(zāi)害預(yù)報與分析等領(lǐng)域
    發(fā)表于 05-06 08:21 ?1676次閱讀

    縱觀全球前沿技術(shù) 博覽行業(yè)領(lǐng)先精品

    本帖最后由 eehome 于 2013-1-5 10:03 編輯 縱觀全球前沿技術(shù) 博覽行業(yè)領(lǐng)先精品 將于2011年4月6日-9日在上海新國際博覽中心舉辦的“2011中國國際瓦楞展”是全球最大
    發(fā)表于 01-05 16:08

    物聯(lián)網(wǎng)最新前沿技術(shù)應(yīng)用大賞(圖文)

    物聯(lián)網(wǎng)最新前沿技術(shù)應(yīng)用大賞(圖文)
    發(fā)表于 08-20 19:39

    FPGA前沿技術(shù)更新

    求FPGA最前沿技術(shù)及信息更新時,在哪能看到?
    發(fā)表于 10-16 16:48

    技術(shù)交流】工業(yè)4.0時代最新前沿技術(shù)、創(chuàng)新方案……你想要的都在這里!

    ,與您共同分享變頻伺服、新能源、充電樁等最新市場動態(tài),誠摯介紹最新高品質(zhì)器件產(chǎn)品,面對面互動交流前沿技術(shù)方案,為您解決各種實(shí)際設(shè)計難題?,F(xiàn)在,咱們先來定一個小目標(biāo):那就是一起參加世強(qiáng)2016年工業(yè)4.0
    發(fā)表于 11-10 15:11

    電磁效應(yīng)領(lǐng)域基礎(chǔ)與前沿技術(shù) 主題論壇

    國家重點(diǎn)支持的研發(fā)項目名錄;提出工程科技支撐與促進(jìn)我國經(jīng)濟(jì)社會發(fā)展的新思路?!半姶判?yīng)領(lǐng)域基礎(chǔ)與前沿技術(shù)”為本項目系列論壇之一,旨在組織我國電磁效應(yīng)領(lǐng)域涉及基礎(chǔ)研究和前沿技術(shù)的專家系統(tǒng)地對本領(lǐng)域非對稱
    發(fā)表于 11-23 10:40

    未來汽車前沿技術(shù)及其產(chǎn)品的開發(fā)應(yīng)用概述

    日高峰論壇聚焦“未來汽車”熱點(diǎn)話題此外,展前在酒店召開的兩天的高端論壇(2019年3月18-19日)將為業(yè)界精英們帶來新能源汽車與智能網(wǎng)聯(lián)汽車領(lǐng)域在前沿技術(shù)發(fā)展趨勢,政策解讀,產(chǎn)業(yè)破冰,更將關(guān)注電池
    發(fā)表于 07-19 04:20

    人工智能和機(jī)器學(xué)習(xí)技術(shù)在2021年的五個發(fā)展趨勢

    ,影響了從辦公室到遠(yuǎn)程工作的業(yè)務(wù)發(fā)展。隨著人們在未來一年不斷適應(yīng),將會看到人工智能和機(jī)器學(xué)習(xí)技術(shù)在2021年的五個發(fā)展趨勢
    發(fā)表于 01-27 06:10

    UWB技術(shù)前沿

    UWB技術(shù)前沿Ultrawide bandwidth(UWB)技術(shù)前沿技術(shù)概述定位特性室內(nèi)定位系統(tǒng)的性能評判指標(biāo)LOS與NLOS定位方法1.到達(dá)角度(AOA)2.到達(dá)時間(TOA)3.到達(dá)時間差
    發(fā)表于 07-26 08:16

    IDF 2011展示“互聯(lián)計算”前沿技術(shù)

    IDF 2011 展示“互聯(lián)計算”前沿技術(shù)
    發(fā)表于 05-07 11:57 ?447次閱讀

    奇元裕辦理半導(dǎo)體前沿技術(shù)論壇 探討大尺寸硅片及3D傳感和VCSEL工藝前沿技術(shù)

    導(dǎo)讀: 為促進(jìn)前沿技術(shù)交流,奇元裕公司于3月14日上海浦東嘉里大酒店辦理2018年半導(dǎo)體前沿技術(shù)論壇,與業(yè)界精英共同探討半導(dǎo)體產(chǎn)業(yè)趨勢、技術(shù)發(fā)展與市場機(jī)會,同時分享了大尺寸硅片及3D傳
    發(fā)表于 04-27 15:00 ?1101次閱讀

    劉鐵巖談機(jī)器學(xué)習(xí):隨波逐流的太多

    機(jī)器學(xué)習(xí)從業(yè)者在當(dāng)下需要掌握哪些前沿技術(shù)?展望未來,又會有哪些技術(shù)趨勢值得期待?
    的頭像 發(fā)表于 01-05 10:58 ?2679次閱讀

    機(jī)器人領(lǐng)域的九大前沿技術(shù)

    機(jī)器人領(lǐng)域的九大前沿技術(shù),液態(tài)機(jī)器人、虛擬現(xiàn)實(shí)你了解多少?
    的頭像 發(fā)表于 05-30 13:59 ?6144次閱讀

    人工智能的前沿技術(shù)與未來發(fā)展

    11月6日至8日舉行的2020中國自動化大會期間,包括20余位院士在內(nèi)的上百名業(yè)內(nèi)專家,圍繞“智能制造”“機(jī)器學(xué)習(xí)”“智慧城市”等熱點(diǎn)話題,展望人工智能的前沿技術(shù)與未來發(fā)展。
    發(fā)表于 11-11 10:09 ?1w次閱讀

    情感語音識別:技術(shù)前沿與未來趨勢

    一、引言 情感語音識別是當(dāng)前人工智能領(lǐng)域的前沿技術(shù),它通過分析人類語音中的情感信息,實(shí)現(xiàn)更加智能化和個性化的人機(jī)交互。本文將探討情感語音識別技術(shù)的最新進(jìn)展和未來趨勢。 二、情感語音識別的技術(shù)前
    的頭像 發(fā)表于 11-28 18:35 ?438次閱讀