以前學(xué)過人工智能算法,但是只是做了比較簡單的項目像手寫識別和貓狗識別等等,對算法掌握的比較淺顯,一直以來特別想做一個能夠做一個能夠識別自己的小程序,感覺很酷,小牛希望通過這個項目繼續(xù)深入學(xué)習(xí)研究相關(guān)算法,本系列文章僅記錄筆者從小白開始的學(xué)習(xí)歷程。
人臉識別是什么?
人臉識別,特指利用分析比較人臉視覺特征信息進(jìn)行身份鑒別的計算機(jī)技術(shù)。用攝像機(jī)或攝像頭采集含有人臉的圖像或視頻流,并自動在圖像中檢測和跟蹤人臉,進(jìn)而對檢測到的人臉進(jìn)行臉部識別的一系列相關(guān)技術(shù),通常也叫做人像識別、面部識別。
查閱相關(guān)資料發(fā)現(xiàn),人臉識別的關(guān)鍵點(diǎn)是:目標(biāo)檢測,關(guān)鍵點(diǎn)定位,活體檢測,相識度度量,人臉屬性回歸
什么是深度學(xué)習(xí)?
關(guān)于深度學(xué)習(xí)的前世今生,深度學(xué)習(xí)屬于機(jī)器學(xué)習(xí)的一個分支,機(jī)器學(xué)習(xí)是實現(xiàn)人工智能的一個途徑,即以機(jī)器學(xué)習(xí)為手段解決人工智能中的問題。機(jī)器學(xué)習(xí)在近30多年已發(fā)展為一門多領(lǐng)域交叉學(xué)科,涉及概率論、統(tǒng)計學(xué)、逼近論、凸分析、計算復(fù)雜性理論等多門學(xué)科。
目前我們?nèi)祟愃v的人工智能,其實是弱人工智能,其不是能夠能真正地推理和解決問題的智能機(jī)器,其實是只不過“看起來”像是智能的,也不會有自主意識。我們通過給它大量的訓(xùn)練數(shù)據(jù),讓它去學(xué)習(xí)其這些數(shù)據(jù)內(nèi)在的特征和關(guān)系,使其能夠處理類似訓(xùn)練數(shù)據(jù)的實際問題。
機(jī)器學(xué)習(xí)中有許多經(jīng)典的算法,其中有一個叫 人工神經(jīng)網(wǎng)絡(luò) 的算法,隱藏層比較多(大于2)的神經(jīng)網(wǎng)絡(luò)叫做深度神經(jīng)網(wǎng)絡(luò)。而深度學(xué)習(xí),就是使用深層架構(gòu)(比如,深度神經(jīng)網(wǎng)絡(luò))的機(jī)器學(xué)習(xí)方法。深度學(xué)習(xí)通俗點(diǎn)講就是神經(jīng)網(wǎng)絡(luò)的升級版。
這里簡單介紹一下相關(guān)概念,大家感興趣,可以去看一下斯坦福大學(xué)公開課:機(jī)器學(xué)習(xí)課程 或者這篇文章 (小牛感覺寫的太牛了,有種通透的趕腳~~)
什么是感知器?
感知器(英語:Perceptron)是Frank Rosenblatt在1957年就職于康奈爾航空實驗室(Cornell Aeronautical Laboratory)時所發(fā)明的一種人工神經(jīng)網(wǎng)絡(luò)。它可以被視為一種最簡單形式的前饋神經(jīng)網(wǎng)絡(luò),是一種二元線性分類器。
神經(jīng)網(wǎng)絡(luò)的組成單元——神經(jīng)元。神經(jīng)元也叫做感知器。
感知器有如下部分:輸入權(quán)值,激活函數(shù),輸出
- 輸出權(quán)值:一個感知器可以接收多個輸入 ,... ,一個輸入上有一個權(quán)值 ,此外還有一個偏置項b。
- 激活函數(shù):感知器的激活函數(shù)可以有很多選擇,我們選擇這個經(jīng)典的階躍函數(shù)來作為激活函數(shù):
- 輸出:
任何線性分類或線性回歸問題,都可以用感知器來解決
多層感知器(MLP)也稱人工神經(jīng)網(wǎng)絡(luò)(ANN)
深度學(xué)習(xí)中的概念變遷:神經(jīng)元->感知器->神經(jīng)網(wǎng)絡(luò)->深度學(xué)習(xí)
前向運(yùn)算
神經(jīng)網(wǎng)絡(luò)的前向運(yùn)算,就是給定一組輸入,計算輸出的過程。
對于前向傳播來說,不管維度多高,其過程都可以用如下公式表示:
假設(shè)上一層結(jié)點(diǎn)輸入1,輸入2,輸入3,…等一些結(jié)點(diǎn)與本層的結(jié)點(diǎn)有連接,那么本層結(jié)點(diǎn)的值就是通過上一層的輸入1,輸入2,輸入3結(jié)點(diǎn)以及對應(yīng)的連接權(quán)值進(jìn)行加權(quán)和運(yùn)算,最終結(jié)果再加上一個偏置項(圖中為了簡單省略了),最后在通過一個非線性函數(shù)(即激活函數(shù)),如ReLu,sigmoid等函數(shù),最后得到的結(jié)果就是本層結(jié)點(diǎn)的輸出。最終不斷的通過這種方法一層層的運(yùn)算,得到輸出層結(jié)果。
σ() = σ(* +)
其中,上標(biāo)代表層數(shù),星號表示卷積,b表示偏置項bias,σ 表示激活函數(shù)。
假設(shè)我們構(gòu)造了一個神經(jīng)網(wǎng)絡(luò)如下圖:
公式如下:
其中f函數(shù)是本圖規(guī)定的算法,Wij就是相鄰兩層神經(jīng)元之間的權(quán)值, 是對x1,x2,x3進(jìn)行線性組合, 是都 ,, 的線性組合
如何計算每層權(quán)值與偏值,f函數(shù)該如何定義,已知具體哪層,求其層的參數(shù)是多少?后面文章會一一道來。
明天再繼續(xù),概念還是挺抽象的,把概念寫明白還是挺累的,腦袋要炸了。
參考:https://www.jiqizhixin.com/graph/technologies/f9849d6c-6262-4c1f-8f42-6d976be17161
https://www.zybuluo.com/hanbingtao/note/433855
https://cloud.tencent.com/developer/news/390591
-
人工智能
+關(guān)注
關(guān)注
1791文章
46671瀏覽量
237118 -
深度學(xué)習(xí)
+關(guān)注
關(guān)注
73文章
5466瀏覽量
120891
發(fā)布評論請先 登錄
相關(guān)推薦
評論