0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

【連載】深度學(xué)習(xí)筆記2:手寫一個單隱層的神經(jīng)網(wǎng)絡(luò)

人工智能實訓(xùn)營 ? 2018-08-06 17:36 ? 次閱讀

筆記1中我們利用 numpy 搭建了神經(jīng)網(wǎng)絡(luò)最簡單的結(jié)構(gòu)單元:感知機。筆記2將繼續(xù)學(xué)習(xí)如何手動搭建神經(jīng)網(wǎng)絡(luò)。我們將學(xué)習(xí)如何利用 numpy 搭建一個含單隱層的神經(jīng)網(wǎng)絡(luò)。單隱層顧名思義,即僅含一個隱藏層的神經(jīng)網(wǎng)絡(luò),抑或是成為兩層網(wǎng)絡(luò)。

繼續(xù)回顧一下搭建一個神經(jīng)網(wǎng)絡(luò)的基本思路和步驟:

  • 定義網(wǎng)絡(luò)結(jié)構(gòu)(指定輸出層、隱藏層、輸出層的大?。?/span>

  • 初始化模型參數(shù)

  • 循環(huán)操作:執(zhí)行前向傳播/計算損失/執(zhí)行后向傳播/權(quán)值更新

定義網(wǎng)絡(luò)結(jié)構(gòu)

假設(shè) X 為神經(jīng)網(wǎng)絡(luò)的輸入特征矩陣,y標(biāo)簽向量。則含單隱層的神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)如下所示:

640?wx_fmt=png

網(wǎng)絡(luò)結(jié)構(gòu)的函數(shù)定義如下:

deflayer_sizes(X,Y):
n_x=X.shape[0]#sizeofinputlayer
n_h=4#sizeofhiddenlayer
n_y=Y.shape[0]#sizeofoutputlayer
return(n_x,n_h,n_y)

其中輸入層和輸出層的大小分別與 Xyshape 有關(guān)。而隱層的大小可由我們手動指定。這里我們指定隱層的大小為4。

初始化模型參數(shù)

假設(shè) W1 為輸入層到隱層的權(quán)重數(shù)組、b1 為輸入層到隱層的偏置數(shù)組;W2 為隱層到輸出層的權(quán)重數(shù)組,b2 為隱層到輸出層的偏置數(shù)組。于是我們定義參數(shù)初始化函數(shù)如下:

def initialize_parameters(n_x, n_h, n_y):
  W1 = np.random.randn(n_h, n_x)*0.01
  b1 = np.zeros((n_h, 1))
  W2 = np.random.randn(n_y, n_h)*0.01
  b2 = np.zeros((n_y, 1)) 

assert (W1.shape == (n_h, n_x))
assert (b1.shape == (n_h, 1))
assert (W2.shape == (n_y, n_h))
assert (b2.shape == (n_y, 1)) parameters = {"W1": W1,
"b1": b1,
"W2": W2,
"b2": b2}

return parameters

其中對權(quán)值的初始化我們利用了 numpy 中的生成隨機數(shù)的模塊 np.random.randn ,偏置的初始化則使用了 np.zero 模塊。通過設(shè)置一個字典進(jìn)行封裝并返回包含初始化參數(shù)之后的結(jié)果。

前向傳播

在定義好網(wǎng)絡(luò)結(jié)構(gòu)并初始化參數(shù)完成之后,就要開始執(zhí)行神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程了。而訓(xùn)練的第一步則是執(zhí)行前向傳播計算。假設(shè)隱層的激活函數(shù)為 tanh 函數(shù), 輸出層的激活函數(shù)為 sigmoid 函數(shù)。則前向傳播計算表示為:

640?wx_fmt=png


定義前向傳播計算函數(shù)為:

def forward_propagation(X, parameters):  # Retrieve each parameter from the dictionary "parameters"
  W1 = parameters['W1']
  b1 = parameters['b1']
  W2 = parameters['W2']
  b2 = parameters['b2']  
# Implement Forward Propagation to calculate A2 (probabilities) Z1 = np.dot(W1, X) + b1 A1 = np.tanh(Z1) Z2 = np.dot(W2, Z1) + b2 A2 = sigmoid(Z2)
assert(A2.shape == (1, X.shape[1]))
cache = {"Z1": Z1, "A1": A1, "Z2": Z2, "A2": A2}
return A2, cache

從參數(shù)初始化結(jié)果字典里取到各自的參數(shù),然后執(zhí)行一次前向傳播計算,將前向傳播計算的結(jié)果保存到 cache 這個字典中, 其中 A2 為經(jīng)過 sigmoid 激活函數(shù)激活后的輸出層的結(jié)果。

計算當(dāng)前訓(xùn)練損失

前向傳播計算完成后我們需要確定以當(dāng)前參數(shù)執(zhí)行計算后的的輸出與標(biāo)簽值之間的損失大小。與筆記1一樣,損失函數(shù)同樣選擇為交叉熵?fù)p失:

640?wx_fmt=png

定義計算損失函數(shù)為:

def compute_cost(A2, Y, parameters):
  m = Y.shape[1] # number of example
  # Compute the cross-entropy cost
  logprobs = np.multiply(np.log(A2),Y) + np.multiply(np.log(1-A2), 1-Y)
  cost = -1/m * np.sum(logprobs)
  cost = np.squeeze(cost)   # makes sure cost is the dimension we expect.

  assert(isinstance(cost, float))  
return cost
執(zhí)行反向傳播

當(dāng)前向傳播和當(dāng)前損失確定之后,就需要繼續(xù)執(zhí)行反向傳播過程來調(diào)整權(quán)值了。中間涉及到各個參數(shù)的梯度計算,具體如下圖所示:

640?wx_fmt=png

根據(jù)上述梯度計算公式定義反向傳播函數(shù):

def backward_propagation(parameters, cache, X, Y):
  m = X.shape[1]  
# First, retrieve W1 and W2 from the dictionary "parameters". W1 = parameters['W1'] W2 = parameters['W2']
# Retrieve also A1 and A2 from dictionary "cache". A1 = cache['A1'] A2 = cache['A2']
# Backward propagation: calculate dW1, db1, dW2, db2. dZ2 = A2-Y dW2 = 1/m * np.dot(dZ2, A1.T) db2 = 1/m * np.sum(dZ2, axis=1, keepdims=True) dZ1 = np.dot(W2.T, dZ2)*(1-np.power(A1, 2)) dW1 = 1/m * np.dot(dZ1, X.T) db1 = 1/m * np.sum(dZ1, axis=1, keepdims=True) grads = {"dW1": dW1,
"db1": db1,
"dW2": dW2,
"db2": db2}
return grads

將各參數(shù)的求導(dǎo)計算結(jié)果放入字典 grad 進(jìn)行返回。

這里需要提一下的是涉及到的關(guān)于數(shù)值優(yōu)化方面的知識。在機器學(xué)習(xí)中,當(dāng)所學(xué)問題有了具體的形式之后,機器學(xué)習(xí)就會形式化為一個求優(yōu)化的問題。不論是梯度下降法、隨機梯度下降、牛頓法、擬牛頓法,抑或是 Adam 之類的高級的優(yōu)化算法,這些都需要花時間掌握去掌握其數(shù)學(xué)原理。

640?wx_fmt=gif

權(quán)值更新

迭代計算的最后一步就是根據(jù)反向傳播的結(jié)果來更新權(quán)值了,更新公式如下:

640?wx_fmt=png

由該公式可以定義權(quán)值更新函數(shù)為:

def update_parameters(parameters, grads, learning_rate = 1.2):  # Retrieve each parameter from the dictionary "parameters"
  W1 = parameters['W1']
  b1 = parameters['b1']
  W2 = parameters['W2']
  b2 = parameters['b2']  
# Retrieve each gradient from the dictionary "grads" dW1 = grads['dW1'] db1 = grads['db1'] dW2 = grads['dW2'] db2 = grads['db2']
# Update rule for each parameter W1 -= dW1 * learning_rate b1 -= db1 * learning_rate W2 -= dW2 * learning_rate b2 -= db2 * learning_rate parameters = {"W1": W1,
"b1": b1,
"W2": W2,
"b2": b2}
return parameters

這樣,前向傳播-計算損失-反向傳播-權(quán)值更新的神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程就算部署完成了。當(dāng)前了,跟筆記1一樣,為了更加 pythonic 一點,我們也將各個模塊組合起來,定義一個神經(jīng)網(wǎng)絡(luò)模型:

def nn_model(X, Y, n_h, num_iterations = 10000, print_cost=False):
  np.random.seed(3)
  n_x = layer_sizes(X, Y)[0]
  n_y = layer_sizes(X, Y)[2]  
# Initialize parameters, then retrieve W1, b1, W2, b2. Inputs: "n_x, n_h, n_y". Outputs = "W1, b1, W2, b2, parameters". parameters = initialize_parameters(n_x, n_h, n_y) W1 = parameters['W1'] b1 = parameters['b1'] W2 = parameters['W2'] b2 = parameters['b2']
# Loop (gradient descent) for i in range(0, num_iterations):
# Forward propagation. Inputs: "X, parameters". Outputs: "A2, cache". A2, cache = forward_propagation(X, parameters)
# Cost function. Inputs: "A2, Y, parameters". Outputs: "cost". cost = compute_cost(A2, Y, parameters)
# Backpropagation. Inputs: "parameters, cache, X, Y". Outputs: "grads". grads = backward_propagation(parameters, cache, X, Y)
# Gradient descent parameter update. Inputs: "parameters, grads". Outputs: "parameters". parameters = update_parameters(parameters, grads, learning_rate=1.2)
# Print the cost every 1000 iterations if print_cost and i % 1000 == 0:
print ("Cost after iteration %i: %f" %(i, cost))

return parameters

以上便是本節(jié)的主要內(nèi)容,利用 numpy 手動搭建一個含單隱層的神經(jīng)網(wǎng)路。從零開始寫起,打牢基礎(chǔ),待到結(jié)構(gòu)熟練,原理吃透,再去接觸一些主流的深度學(xué)習(xí)框架才是學(xué)習(xí)深度學(xué)習(xí)的最佳途徑。

本文來自《自興動腦人工智能》項目部:凱文。






聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4718

    瀏覽量

    100067
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29013

    瀏覽量

    266458
  • 人工智能
    +關(guān)注

    關(guān)注

    1787

    文章

    46124

    瀏覽量

    235419
收藏 人收藏

    評論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)中的卷積、池化與全連接

    深度學(xué)習(xí)中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)是種特別適用于處理圖像數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。
    的頭像 發(fā)表于 07-11 14:18 ?2305次閱讀

    神經(jīng)網(wǎng)絡(luò)模型的基本結(jié)構(gòu)是什么

    神經(jīng)網(wǎng)絡(luò)模型是種常見的深度學(xué)習(xí)模型,它由輸入、隱藏
    的頭像 發(fā)表于 07-11 10:59 ?388次閱讀

    神經(jīng)網(wǎng)絡(luò)模型的優(yōu)缺點

    神經(jīng)網(wǎng)絡(luò)模型是種常見的深度學(xué)習(xí)模型,它由輸入、兩
    的頭像 發(fā)表于 07-11 10:58 ?270次閱讀

    PyTorch神經(jīng)網(wǎng)絡(luò)模型構(gòu)建過程

    PyTorch,作為廣泛使用的開源深度學(xué)習(xí)庫,提供了豐富的工具和模塊,幫助開發(fā)者構(gòu)建、訓(xùn)練和部署神經(jīng)網(wǎng)絡(luò)模型。在
    的頭像 發(fā)表于 07-10 14:57 ?313次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指傳統(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時,我們需
    的頭像 發(fā)表于 07-04 13:20 ?359次閱讀

    深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)作為其中的重要分支,已經(jīng)在多個領(lǐng)域取得了顯著的應(yīng)用成果。從圖像識別、語音識別
    的頭像 發(fā)表于 07-02 18:19 ?584次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理與實現(xiàn)

    1.卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、視頻分析、自然語言處理等領(lǐng)域。 卷積
    的頭像 發(fā)表于 07-02 16:47 ?334次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)一層的作用

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,簡稱CNN)是深度學(xué)習(xí)算法,廣泛應(yīng)用于圖像識別、自然語言處理等領(lǐng)域。本文將詳細(xì)介紹卷積
    的頭像 發(fā)表于 07-02 15:28 ?624次閱讀

    構(gòu)建神經(jīng)網(wǎng)絡(luò)模型方法有幾種

    構(gòu)建神經(jīng)網(wǎng)絡(luò)模型是深度學(xué)習(xí)領(lǐng)域的核心任務(wù)之。本文將詳細(xì)介紹構(gòu)建神經(jīng)網(wǎng)絡(luò)模型的幾種方法,包括前饗神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-02 10:15 ?235次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型cnn的基本概念、結(jié)構(gòu)及原理

    深度神經(jīng)網(wǎng)絡(luò)模型CNN(Convolutional Neural Network)是種廣泛應(yīng)用于圖像識別、視頻分析和自然語言處理等領(lǐng)域的深度學(xué)習(xí)
    的頭像 發(fā)表于 07-02 10:11 ?8863次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型有哪些

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,DNNs)是類具有多個隱藏神經(jīng)網(wǎng)絡(luò),它們在許多領(lǐng)域取得了顯著的成功,如計算機視
    的頭像 發(fā)表于 07-02 10:00 ?620次閱讀

    利用深度循環(huán)神經(jīng)網(wǎng)絡(luò)對心電圖降噪

    一個是它們由堆疊在起的多個 (> 2) 組成 - 這 種方法也稱為深度學(xué)習(xí)。這種深層
    發(fā)表于 05-15 14:42

    助聽器降噪神經(jīng)網(wǎng)絡(luò)模型

    抑制任務(wù)是語音增強領(lǐng)域的重要學(xué)科, 隨著深度神經(jīng)網(wǎng)絡(luò)的興起,提出了幾種基于深度模型的音頻處理新方法[1,
    發(fā)表于 05-11 17:15

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時代,錯綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進(jìn)人們的視線
    的頭像 發(fā)表于 01-11 10:51 ?1641次閱讀
    詳解<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用

    淺析深度神經(jīng)網(wǎng)絡(luò)壓縮與加速技術(shù)

    深度神經(jīng)網(wǎng)絡(luò)深度學(xué)習(xí)種框架,它是種具備至少
    的頭像 發(fā)表于 10-11 09:14 ?607次閱讀
    淺析<b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>壓縮與加速技術(shù)