我們現(xiàn)在有了很多非常厲害的深度學(xué)習(xí)框架,比如Tensorflow,CNTK,PaddlePaddle,Caffe2等等。然而,這些為了解決實(shí)際的應(yīng)用問題而生的,而不是用來學(xué)習(xí)“深度學(xué)習(xí)”知識(shí)和思想的。所以微軟Xiaowuhu根據(jù)自己親身經(jīng)歷的學(xué)習(xí)軌跡,歸納出了以下教程,可以幫助小白做到真正的從入門到精通。通過以下循序漸進(jìn)地學(xué)習(xí)與動(dòng)手實(shí)踐,一方面可以幫助讀者深刻理解“深度學(xué)習(xí)”的基礎(chǔ)知識(shí),更好地理解并使用現(xiàn)有框架,另一方面可以助力讀者快速學(xué)習(xí)最新出現(xiàn)的各種神經(jīng)網(wǎng)絡(luò)的擴(kuò)展或者變型,跟上快速發(fā)展的AI浪潮。
寫在前面,為什么要出這個(gè)系列的教程呢?
總的說來,我們現(xiàn)在有了很多非常厲害的深度學(xué)習(xí)框架,比如Tensorflow,CNTK,PaddlePaddle,Caffe2等等。然而,我們用這些框架在搭建我們自己的深度學(xué)習(xí)模型的時(shí)候,到底做了一些什么樣的操作呢?我們?cè)噲D去閱讀框架的源碼來理解框架到底幫助我們做了些什么,但是……很難!很難!很難!因?yàn)樯疃葘W(xué)習(xí)是需要加速啦,分布式計(jì)算啦,框架做了很多很多的優(yōu)化,也讓像我們這樣的小白難以理解這些框架的源碼。
這取決于你是想真正地掌握“深度學(xué)習(xí)”的思想,還是只想成為一個(gè)調(diào)參師?在我們看來,如TensorFlow,CNTK這些偉大的深度學(xué)習(xí)工具,是為了解決實(shí)際的應(yīng)用問題而生的,而不是用來學(xué)習(xí)“深度學(xué)習(xí)”知識(shí)和思想的。所以我們根據(jù)自己親身經(jīng)歷的學(xué)習(xí)軌跡,歸納出了以下教程,可以幫助小白做到真正的從入門到精通。
通過以下循序漸進(jìn)地學(xué)習(xí)與動(dòng)手實(shí)踐,一方面可以幫助讀者深刻理解“深度學(xué)習(xí)”的基礎(chǔ)知識(shí),更好地理解并使用現(xiàn)有框架,另一方面可以助力讀者快速學(xué)習(xí)最新出現(xiàn)的各種神經(jīng)網(wǎng)絡(luò)的擴(kuò)展或者變型,跟上快速發(fā)展的AI浪潮。
對(duì)于這份教程的內(nèi)容,如果沒有額外的說明,我們通常使用如下表格的命名約定:
?
符號(hào) | 含義 |
---|---|
X | 輸入樣本 |
Y | 輸入樣本的標(biāo)簽 |
Z | 線性運(yùn)算的結(jié)果 |
A | 激活函數(shù)/結(jié)果 |
W | 權(quán)重矩陣 |
B | 偏移矩陣 |
J | 損失函數(shù) |
大寫字母 | 矩陣或矢量,如A,W,B |
小寫字母 | 變量,標(biāo)量,如a,w,b |
x1,2 | 第1個(gè)樣本的第2個(gè)特征值 |
wL2,3 | 第L層第2個(gè)神經(jīng)元對(duì)第L-1層第3個(gè)神經(jīng)元的權(quán)重值 |
矩陣的行 | 一批樣本的某一個(gè)特征值的集合 |
矩陣的列 | 一批樣本的某一個(gè)樣本的所有特征值 |
?
適用范圍
沒有各種基礎(chǔ)想學(xué)習(xí)卻無從下手哀聲嘆氣的玩家,請(qǐng)按時(shí)跟蹤最新博客,推導(dǎo)數(shù)學(xué)公式,跑通代碼,并及時(shí)提出問題,以求最高療效;
深度學(xué)習(xí)小白,有直觀的人工智能的認(rèn)識(shí),強(qiáng)烈的學(xué)習(xí)欲望和需求,請(qǐng)?jiān)诓┛偷幕A(chǔ)上配合代碼食用,效果更佳;
調(diào)參師,訓(xùn)練過模型,調(diào)過參數(shù),想了解框架內(nèi)各層運(yùn)算過程,給玄學(xué)的調(diào)參之路添加一點(diǎn)心理保障;
超級(jí)高手,提出您寶貴的意見,給廣大初學(xué)者指出一條明路!
前期準(zhǔn)備
環(huán)境:
Windows 10 version 1809
Visual Studio 2017 Community or above
Python 3.6.6
Jupyter Notebook (可選)
自己:
清醒的頭腦(困了的同學(xué)請(qǐng)自覺泡茶),紙和筆(如果想跟著推公式的話),鬧鐘(防止久坐按時(shí)起來轉(zhuǎn)轉(zhuǎn)),厚厚的衣服(有暖氣的同學(xué)請(qǐng)忽略)
網(wǎng)絡(luò)結(jié)構(gòu)概覽
網(wǎng)絡(luò)結(jié)構(gòu)名稱 | 網(wǎng)絡(luò)結(jié)構(gòu)圖 | 應(yīng)用領(lǐng)域 |
---|---|---|
單入 單出 一層 |
? |
? | 一元線性回歸 |
多入 單出 一層 |
? |
? | 多元線性回歸 |
多入 單出 一層 |
? |
? | 線性二分類 |
多入 多出 一層 |
? |
? | 線性多分類 |
單入 單出 兩層 |
? |
? |
一元非線性回歸/擬合 可以擬合任意復(fù)雜函數(shù) |
多入 單出 兩層 |
? |
? | 非線性二分類 |
多入 多出 兩層 |
? |
? | 非線性多分類 |
多入 多出 三層 |
? |
? | 非線性多分類 |
?
目錄
1. 基本概念
首先會(huì)講解一下神經(jīng)網(wǎng)絡(luò)基本的訓(xùn)練和工作原理,因?yàn)榛旧细鞣N教程里都沒有提到這一點(diǎn),以至于筆者在剛開始學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)時(shí)一頭霧水,不得要領(lǐng),不知從何處開始下手。
后面接的是導(dǎo)數(shù)公式和反向傳播公式,包括矩陣求導(dǎo),這一部分可以大概瀏覽一下,主要的目的是備查,在自己推導(dǎo)反向公式時(shí)可以參考。
然后是反向傳播和梯度下降,我們先從簡(jiǎn)單的線性方式說起(只有加法和乘法),而且用代入數(shù)值的方式來消除對(duì)公式的恐懼心理。然后會(huì)說到分層的復(fù)雜(非線性)函數(shù)的反向傳播,同樣用數(shù)值代入方式手推反向過程。
梯度下降是神經(jīng)網(wǎng)絡(luò)的基本學(xué)習(xí)方法,我們會(huì)用單變量和雙變量?jī)煞N方式說明,配以可視化的圖解。再多的變量就無法用可視化方式來解釋了,所以我們力求用簡(jiǎn)單的方式理解復(fù)雜的事物。
本部分最后是損失函數(shù)的講解,著重說明了神經(jīng)網(wǎng)絡(luò)中目前最常用的均方差損失函數(shù)(用于回歸)和交叉熵?fù)p失函數(shù)(用于分類)。
2. 線性回歸
用線性回歸作為學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的起點(diǎn),是一個(gè)非常好的選擇,因?yàn)榫€性回歸問題本身比較容易理解,在它的基礎(chǔ)上,逐步的增加一些新的知識(shí)點(diǎn),會(huì)形成一條比較平緩的學(xué)習(xí)曲線,或者說是邁向神經(jīng)網(wǎng)絡(luò)的第一個(gè)小臺(tái)階。
單層的神經(jīng)網(wǎng)絡(luò),其實(shí)就是一個(gè)神經(jīng)元,可以完成一些線性的工作,比如擬合一條直線,這用一個(gè)神經(jīng)元就可以實(shí)現(xiàn)。當(dāng)這個(gè)神經(jīng)元只接收一個(gè)輸入時(shí),就是單變量線性回歸,可以在二維平面上用可視化方法理解。當(dāng)接收多個(gè)變量輸入時(shí),叫做多變量線性回歸,此時(shí)可視化方法理解就比較困難了,通常我們會(huì)用變量?jī)蓛山M對(duì)的方式來表現(xiàn)。
當(dāng)變量多于一個(gè)時(shí),兩個(gè)變量的量綱和數(shù)值有可能差別很大,這種情況下,我們通常需要對(duì)樣本特征數(shù)據(jù)做歸一化,然后把數(shù)據(jù)喂給神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,否則會(huì)出現(xiàn)“消化不良”的情況。
3. 線性分類
分類問題在很多資料中都稱之為邏輯回歸,Logistic Regression,其原因是使用了線性回歸中的線性模型,加上一個(gè)Logistic二分類函數(shù),共同構(gòu)造了一個(gè)分類器。我們?cè)诒緯薪y(tǒng)稱之為分類。
神經(jīng)網(wǎng)絡(luò)的一個(gè)重要功能就是分類,現(xiàn)實(shí)世界中的分類任務(wù)復(fù)雜多樣,但萬變不離其宗,我們都可以用同一種模式的神經(jīng)網(wǎng)絡(luò)來處理。
本部分中,我們從最簡(jiǎn)單的線性二分類開始學(xué)習(xí),包括其原理,實(shí)現(xiàn),訓(xùn)練過程,推理過程等等,并且以可視化的方式來幫助大家更好地理解這些過程。
在第二步中,我們學(xué)習(xí)了實(shí)現(xiàn)邏輯非門,在本部分中,我們將利用學(xué)到的二分類知識(shí),實(shí)現(xiàn)邏輯與門、與非門,或門,或非門。
做二分類時(shí),我們一般用Sigmoid函數(shù)做分類函數(shù),那么和Sigmoid函數(shù)長(zhǎng)得特別像的雙曲正切函數(shù)能不能做分類函數(shù)呢?我們將會(huì)探索這件事情,從而對(duì)分類函數(shù)、損失函數(shù)、樣本標(biāo)簽有更深的理解。
然后我們將進(jìn)入線性多分類的學(xué)習(xí)。多分類時(shí),可以一對(duì)一、一對(duì)多、多對(duì)多,那么神經(jīng)網(wǎng)絡(luò)使用的是哪種方式呢?
Softmax函數(shù)是多分類問題的分類函數(shù),通過對(duì)它的分析,我們學(xué)習(xí)多分類的原理、實(shí)現(xiàn)、以及可視化結(jié)果,從而理解神經(jīng)網(wǎng)絡(luò)的工作方式。
4. 非線性回歸
從這一步開始,我們進(jìn)入了兩層神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí),從而解決非線性問題。
在兩層神經(jīng)網(wǎng)絡(luò)之間,必須有激活函數(shù)連接,從而加入非線性因素,提高神經(jīng)網(wǎng)絡(luò)的能力。所以,我們先從激活函數(shù)學(xué)起,一類是擠壓型的激活函數(shù),常用于簡(jiǎn)單網(wǎng)絡(luò)的學(xué)習(xí);另一類是半線性的激活函數(shù),常用于深度網(wǎng)絡(luò)的學(xué)習(xí)。
接下來我們將驗(yàn)證著名的萬能近似定理,建立一個(gè)雙層的神經(jīng)網(wǎng)絡(luò),來擬合一個(gè)比較復(fù)雜的函數(shù)。
在上面的雙層神經(jīng)網(wǎng)絡(luò)中,已經(jīng)出現(xiàn)了很多的超參,都會(huì)影響到神經(jīng)網(wǎng)絡(luò)的訓(xùn)練結(jié)果。所以在完成了基本的擬合任務(wù)之后,我們將會(huì)嘗試著調(diào)試這些參數(shù),得到更好的訓(xùn)練效果(又快又好),從而得到超參調(diào)試的第一手經(jīng)驗(yàn)。
。
5. 非線性分類
我們?cè)诘谌街袑W(xué)習(xí)了線性分類,在本部分中,我們將學(xué)習(xí)更復(fù)雜的分類問題,比如,在很多年前,兩位著名的學(xué)者證明了感知機(jī)無法解決邏輯中的異或問題,從而使感知機(jī)這個(gè)研究領(lǐng)域陷入了長(zhǎng)期的停滯。我們將會(huì)在使用雙層網(wǎng)絡(luò)解決異或問題。
異或問題是個(gè)簡(jiǎn)單的二分類問題,因?yàn)楫吘怪挥?個(gè)樣本數(shù)據(jù),我們會(huì)用更復(fù)雜的數(shù)據(jù)樣本來學(xué)習(xí)非線性多分類問題,并理解其工作原理。
然后我們將會(huì)用一個(gè)稍微復(fù)雜些的二分類例子,來說明在二維平面上,神經(jīng)網(wǎng)絡(luò)是通過怎樣的神奇的線性變換加激活函數(shù)預(yù)算,把線性不可分的問題轉(zhuǎn)化為線性可分問題的。
解決完二分類問題,我們將學(xué)習(xí)如何解決更復(fù)雜的三分類問題,由于樣本的復(fù)雜性,必須在隱層使用多個(gè)神經(jīng)元才能完成分類任務(wù)。
最后我們將搭建一個(gè)三層神經(jīng)網(wǎng)絡(luò),來解決MNIST手寫數(shù)字識(shí)別問題,并學(xué)習(xí)使用梯度檢查來幫助我們測(cè)試反向傳播代碼的正確性。
數(shù)據(jù)集的使用,是深度學(xué)習(xí)的一個(gè)基本技能,開發(fā)集、驗(yàn)證集、測(cè)試集,合理地使用才能得到理想的泛化能力強(qiáng)的模型。
6. 模型推理與部署
我們已經(jīng)用神經(jīng)網(wǎng)絡(luò)訓(xùn)練出來了一套權(quán)重矩陣,但是這個(gè)模型如何使用呢?我們總不能在實(shí)際生產(chǎn)環(huán)境中使用python代碼來做推理吧?更何況在手機(jī)中也是不能運(yùn)行Python代碼的。
這就引出了模型的概念。一個(gè)模型會(huì)記錄神經(jīng)網(wǎng)絡(luò)的計(jì)算圖,并加載權(quán)重矩陣,而這些模型會(huì)用C++等代碼來實(shí)現(xiàn),以保證部署的便利。
我們將會(huì)學(xué)習(xí)到在Windows上使用ONNX模型的方法,然后是在Android上的模型部署方法。而在iOS設(shè)備上的模型,與Android的原理相同,有需要的話可以自己找資料學(xué)習(xí)。我們也許會(huì)考慮以后增加這部分內(nèi)容。
7. 深度神經(jīng)網(wǎng)絡(luò)
在前面的幾步中,我們用簡(jiǎn)單的案例,逐步學(xué)習(xí)了眾多的知識(shí),使得我們可以更輕松地接觸深度學(xué)習(xí)。
從這一部分開始,探討深度學(xué)習(xí)的一些細(xì)節(jié),如權(quán)重矩陣初始化、梯度下降優(yōu)化算法、批量歸一化等高級(jí)知識(shí)。
由于深度網(wǎng)絡(luò)的學(xué)習(xí)能力強(qiáng)的特點(diǎn),會(huì)造成網(wǎng)絡(luò)對(duì)樣本數(shù)據(jù)過分?jǐn)M合,從而造成泛化能力不足,因?yàn)槲覀冃枰恍┦侄蝸砀纳凭W(wǎng)絡(luò)的泛化能力。
8. 卷積神經(jīng)網(wǎng)絡(luò)
卷積神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)中的一個(gè)里程碑式的技術(shù),有了這個(gè)技術(shù),才會(huì)讓計(jì)算機(jī)有能力理解圖片和視頻信息,才會(huì)有計(jì)算機(jī)視覺的眾多應(yīng)用。
在本部分的學(xué)習(xí)中,我們將會(huì)逐步介紹卷積的前向計(jì)算、卷積的反向傳播、池化的前向計(jì)算與反向傳播,然后用代碼實(shí)現(xiàn)一個(gè)卷積網(wǎng)絡(luò)并訓(xùn)練一些實(shí)際數(shù)據(jù)。
在后面我們還會(huì)介紹一些經(jīng)典的卷積模型,向大師們學(xué)習(xí)一些解決問題的方法論問題。
編輯:黃飛
?
評(píng)論
查看更多