以往的人臉識(shí)別主要是包括人臉圖像采集、人臉識(shí)別預(yù)處理、身份確認(rèn)、身份查找等技術(shù)和系統(tǒng)?,F(xiàn)在人臉識(shí)別已經(jīng)慢慢延伸到了ADAS中的駕駛員檢測、行人跟蹤、甚至到了動(dòng)態(tài)物體的跟蹤。由此可以看出,人臉識(shí)別系統(tǒng)已經(jīng)由簡單的圖像處理發(fā)展到了視頻實(shí)時(shí)處理。而且算法已經(jīng)由以前的Adaboots、PCA等傳統(tǒng)的統(tǒng)計(jì)學(xué)方法轉(zhuǎn)變?yōu)镃NN、RCNN等深度學(xué)習(xí)及其變形的方法?,F(xiàn)在也有相當(dāng)一部分人開始研究3維人臉識(shí)別識(shí)別,這種項(xiàng)目目前也受到了學(xué)術(shù)界、工業(yè)界和國家的支持。
首先看看現(xiàn)在的研究現(xiàn)狀。如上的發(fā)展趨勢(shì)可以知道,現(xiàn)在的主要研究方向是利用深度學(xué)習(xí)的方法解決視頻人臉識(shí)別。
主要的研究人員:
如下:中科院計(jì)算所的山世光教授、中科院生物識(shí)別研究所的李子青教授、清華大學(xué)的蘇光大教授、香港中文大學(xué)的湯曉鷗教授、Ross B. Girshick等等。
主要開源項(xiàng)目:
SeetaFace人臉識(shí)別引擎。該引擎由中科院計(jì)算所山世光研究員帶領(lǐng)的人臉識(shí)別研究組研發(fā)。代碼基于C++實(shí)現(xiàn),且不依賴于任何第三方的庫函數(shù),開源協(xié)議為BSD-2,可供學(xué)術(shù)界和工業(yè)界免費(fèi)使用。github鏈接:
https://github.com/seetaface/SeetaFaceEngine
主要軟件API/SDK:
face++。Face++.com 是一個(gè)提供免費(fèi)人臉檢測、人臉識(shí)別、人臉屬性分析等服務(wù)的云端服務(wù)平臺(tái)。Face++是北京曠視科技有限公司旗下的全新人臉技術(shù)云平臺(tái),在黑馬大賽中,F(xiàn)ace++獲得年度總冠軍,已獲得聯(lián)想之星投資。
skybiometry.。主要包含了face detection、face recognition、face grouping。
主要的人臉識(shí)別圖像庫:
目前公開的比較好的人臉圖像庫有LFW(Labelled Faces in the Wild)和YFW(Youtube Faces in the Wild)。現(xiàn)在的實(shí)驗(yàn)數(shù)據(jù)集基本上是來源于LFW,而且目前的圖像人臉識(shí)別的精度已經(jīng)達(dá)到99%,基本上現(xiàn)有的圖像數(shù)據(jù)庫已經(jīng)被刷爆。下面是現(xiàn)有人臉圖像數(shù)據(jù)庫的總結(jié):
現(xiàn)在在中國做人臉識(shí)別的公司已經(jīng)越來越多,應(yīng)用也非常的廣泛。其中市場占有率最高的是漢王科技。主要公司的研究方向和現(xiàn)狀如下:
漢王科技:漢王科技主要是做人臉識(shí)別的身份驗(yàn)證,主要用在門禁系統(tǒng)、考勤系統(tǒng)等等。
科大訊飛:科大訊飛在香港中文大學(xué)湯曉鷗教授團(tuán)隊(duì)支持下,開發(fā)出了一個(gè)基于高斯過程的人臉識(shí)別技術(shù)–Gussian face, 該技術(shù)在LFW上的識(shí)別率為98.52%,目前該公司的DEEPID2在LFW上的識(shí)別率已經(jīng)達(dá)到了99.4%。
川大智勝:目前該公司的研究亮點(diǎn)是三維人臉識(shí)別,并拓展到3維全臉照相機(jī)產(chǎn)業(yè)化等等。
商湯科技:主要是一家致力于引領(lǐng)人工智能核心“深度學(xué)習(xí)”技術(shù)突破,構(gòu)建人工智能、大數(shù)據(jù)分析行業(yè)解決方案的公司,目前在人臉識(shí)別、文字識(shí)別、人體識(shí)別、車輛識(shí)別、物體識(shí)別、圖像處理等方向有很強(qiáng)的競爭力。在人臉識(shí)別中有106個(gè)人臉關(guān)鍵點(diǎn)的識(shí)別。
人臉識(shí)別的過程
人臉識(shí)別主要分為四大塊:人臉定位(face detection)、 人臉校準(zhǔn)(face alignment)、 人臉確認(rèn)(face verification)、人臉鑒別(face identification)。
人臉定位(face detection):
對(duì)圖像中的人臉進(jìn)行檢測,并將結(jié)果用矩形框框出來。在openCV中有直接能拿出來用的Harr分類器。
人臉校準(zhǔn)(face alignment):
對(duì)檢測到的人臉進(jìn)行姿態(tài)的校正,使其人臉盡可能的”正”,通過校正可以提高人臉識(shí)別的精度。校正的方法有2D校正、3D校正的方法,3D校正的方法可以使側(cè)臉得到較好的識(shí)別。 在進(jìn)行人臉校正的時(shí)候,會(huì)有檢測特征點(diǎn)的位置這一步,這些特征點(diǎn)位置主要是諸如鼻子左側(cè),鼻孔下側(cè),瞳孔位置,上嘴唇下側(cè)等等位置,知道了這些特征點(diǎn)的位置后,做一下位置驅(qū)動(dòng)的變形,臉即可被?!闭绷恕H缦聢D所示:
這里介紹一種MSRA在14年的技術(shù):Joint Cascade Face Detection and Alignment(ECCV14)。這篇文章直接在30ms的時(shí)間里把detection和alignment都給做了。
人臉確認(rèn)(face verification):
Face verification,人臉校驗(yàn)是基于pair matching的方式,所以它得到的答案是“是”或者“不是”。在具體操作的時(shí)候,給定一張測試圖片,然后挨個(gè)進(jìn)行pair matching,matching上了則說明測試圖像與該張匹配上的人臉為同一個(gè)人的人臉。一般在小型辦公室人臉?biāo)⒛槾蚩ㄏ到y(tǒng)中采用的(應(yīng)該)是這種方法,具體操作方法大致是這樣一個(gè)流程:離線逐個(gè)錄入員工的人臉照片(一個(gè)員工錄入的人臉一般不止一張),員工在刷臉打卡的時(shí)候相機(jī)捕獲到圖像后,通過前面所講的先進(jìn)行人臉檢測,然后進(jìn)行人臉校正,再進(jìn)行人臉校驗(yàn),一旦match結(jié)果為“是”,說明該名刷臉的人員是屬于本辦公室的,人臉校驗(yàn)到這一步就完成了。在離線錄入員工人臉的時(shí)候,我們可以將人臉與人名對(duì)應(yīng),這樣一旦在人臉校驗(yàn)成功后,就可以知道這個(gè)人是誰了。上面所說的這樣一種系統(tǒng)優(yōu)點(diǎn)是開發(fā)費(fèi)用低廉,適合小型辦公場所,缺點(diǎn)是在捕獲時(shí)不能有遮擋,而且還要求人臉姿態(tài)比較正(這種系統(tǒng)我們所有,不過沒體驗(yàn)過)。下圖給出了示意說明:
人臉識(shí)別(face identification/recognition):
Face identification或Face recognition,人臉識(shí)別正如下圖所示的,它要回答的是“我是誰?”,相比于人臉校驗(yàn)采用的pair matching,它在識(shí)別階段更多的是采用分類的手段。它實(shí)際上是對(duì)進(jìn)行了前面兩步即人臉檢測、人臉校正后做的圖像(人臉)分類。
根據(jù)上面四個(gè)概念的介紹,我們可以了解到人臉識(shí)別主要包括三個(gè)大的、獨(dú)立性強(qiáng)的模塊:
我們將上面的步驟進(jìn)行詳細(xì)的拆分,得到下面的過程圖:
人臉識(shí)別分類
現(xiàn)在隨著人臉識(shí)別技術(shù)的發(fā)展,人臉識(shí)別技術(shù)主要分為了三類:一是基于圖像的識(shí)別方法、二是基于視頻的識(shí)別方法、三是三維人臉識(shí)別方法。
基于圖像的識(shí)別方法:
這個(gè)過程是一個(gè)靜態(tài)的圖像識(shí)別過程,主要利用圖像處理。主要的算法有PCA、EP、kernel method、 Bayesian Framwork、SVM 、HMM、Adaboot等等算法。但在2014年,人臉識(shí)別利用Deep learning 技術(shù)取得了重大突破,為代表的有deepface的97.25%、face++的97.27%,但是deep face的訓(xùn)練集是400w集的,而同時(shí)香港中文大學(xué)湯曉鷗的Gussian face的訓(xùn)練集為2w。
基于視頻的實(shí)時(shí)識(shí)別方法:
這個(gè)過程可以看出人臉識(shí)別的追蹤過程,不僅僅要求在視頻中找到人臉的位置和大小,還需要確定幀間不同人臉的對(duì)應(yīng)關(guān)系。
DeepFace
參考論文(資料):
1. DeepFace論文。DeepFace:Closing the Gap to Human-level Performance in Face Verificaion
2. 卷積神經(jīng)網(wǎng)絡(luò)了解博客。http://blog.csdn.net/zouxy09/article/details/8781543
3. 卷積神經(jīng)網(wǎng)絡(luò)的推導(dǎo)博客。http://blog.csdn.net/zouxy09/article/details/9993371/
4.Note on convolution Neural Network.
5.Neural Network for Recognition of Handwritten Digits
6. DeepFace博文:http://blog.csdn.net/Hao_Zhang_Vision/article/details/52831399?locationNum=2&fps=1
DeepFace是FaceBook提出來的,后續(xù)有DeepID和FaceNet出現(xiàn)。而且在DeepID和FaceNet中都能體現(xiàn)DeepFace的身影,所以DeepFace可以謂之CNN在人臉識(shí)別的奠基之作,目前深度學(xué)習(xí)在人臉識(shí)別中也取得了非常好的效果。所以這里我們先從DeepFace開始學(xué)習(xí)。
在DeepFace的學(xué)習(xí)過程中,不僅將DeepFace所用的方法進(jìn)行介紹,也會(huì)介紹當(dāng)前該步驟的其它主要算法,對(duì)現(xiàn)有的圖像人臉識(shí)別技術(shù)做一個(gè)簡單、全面的敘述。
1.DeepFace的基本框架
1.1 人臉識(shí)別的基本流程
face detection -> face alignment -> face verification -> face identification
1.2 人臉檢測(face detection)
1.2.1 現(xiàn)有技術(shù):
haar分類器:
人臉檢測(detection)在opencv中早就有直接能拿來用的haar分類器,基于Viola-Jones算法。
Adaboost算法(級(jí)聯(lián)分類器):
1.參考論文:Robust Real-Time face detection。
2. 參考中文博客:http://blog.csdn.net/cyh_24/article/details/39755661
3. 博客:http://blog.sina.com.cn/s/blog_7769660f01019ep0.html
1.2.2 文章中所用方法
本文中采用了基于檢測點(diǎn)的人臉檢測方法(fiducial Point Detector)。
先選擇6個(gè)基準(zhǔn)點(diǎn),2只眼睛中心、 1個(gè)鼻子點(diǎn)、3個(gè)嘴上的點(diǎn)。
通過LBP特征用SVR來學(xué)習(xí)得到基準(zhǔn)點(diǎn)。
效果如下:
1.3 人臉校準(zhǔn)(face alignment)
2D alignment:
對(duì)Detection后的圖片進(jìn)行二維裁剪, scale, rotate and translate the image into six anchor locations。 將人臉部分裁剪出來。
3D alignment:
找到一個(gè)3D 模型,用這個(gè)3D模型把二維人臉crop成3D人臉。67個(gè)基點(diǎn),然后Delaunay三角化,在輪廓處添加三角形來避免不連續(xù)。
將三角化后的人臉轉(zhuǎn)換成3D形狀
三角化后的人臉變?yōu)橛猩疃鹊?D三角網(wǎng)
將三角網(wǎng)做偏轉(zhuǎn),使人臉的正面朝前
最后放正的人臉
效果如下:
上面的2D alignment對(duì)應(yīng)(b)圖,3D alignment依次對(duì)應(yīng)(c) ~ (h)。
1.4 人臉表示(face verification)
1.4.1 現(xiàn)有技術(shù)
LBP && joint Beyesian:
通過高維LBP跟Joint Bayesian這兩個(gè)方法結(jié)合。
論文:Bayesian Face Revisited: A Joint Formulation
DeepID系列:
將七個(gè)聯(lián)合貝葉斯模型使用SVM進(jìn)行融合,精度達(dá)到99.15%
論文:Deep Learning Face Representation by Joint Identification-Verification
1.4.2 文章中的方法
論文中通過一個(gè)多類人臉識(shí)別任務(wù)來訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)(DNN)。網(wǎng)絡(luò)結(jié)構(gòu)如上圖所示。
結(jié)構(gòu)參數(shù):
經(jīng)過3D對(duì)齊以后,形成的圖像都是152×152的圖像,輸入到上述網(wǎng)絡(luò)結(jié)構(gòu)中,該結(jié)構(gòu)的參數(shù)如下:
Conv:32個(gè)11×11×3的卷積核
max-pooling: 3×3, stride=2
Conv: 16個(gè)9×9的卷積核
Local-Conv: 16個(gè)9×9的卷積核,Local的意思是卷積核的參數(shù)不共享
Local-Conv: 16個(gè)7×7的卷積核,參數(shù)不共享
Local-Conv: 16個(gè)5×5的卷積核,參數(shù)不共享
Fully-connected: 4096維
Softmax: 4030維
提取低水平特征:
過程如下所示:
預(yù)處理階段:輸入3通道的人臉,并進(jìn)行3D校正,再歸一化到152*152像素大小——152*152*3.
通過卷積層C1:C1包含32個(gè)11*11*3的濾波器(即卷積核),得到32張?zhí)卣鲌D——32*142*142*3。
通過max-polling層M2:M2的滑窗大小為3*3,滑動(dòng)步長為2,3個(gè)通道上分別獨(dú)立polling。
通過另一個(gè)卷積層C3:C3包含16個(gè)9*9*16的3維卷積核。
上述3層網(wǎng)絡(luò)是為了提取到低水平的特征,如簡單的邊緣特征和紋理特征。Max-polling層使得卷積網(wǎng)絡(luò)對(duì)局部的變換更加魯棒。如果輸入是校正后的人臉,就能使網(wǎng)絡(luò)對(duì)小的標(biāo)記誤差更加魯棒。然而這樣的polling層會(huì)使網(wǎng)絡(luò)在面部的細(xì)節(jié)結(jié)構(gòu)和微小紋理的精準(zhǔn)位置上丟失一些信息。因此,文中只在第一個(gè)卷積層后面接了Max-polling層。這些前面的層稱之為前端自適應(yīng)的預(yù)處理層級(jí)。然而對(duì)于許多計(jì)算來講,這是很必要的,這些層的參數(shù)其實(shí)很少。它們僅僅是把輸入圖像擴(kuò)充成一個(gè)簡單的局部特征集。
后續(xù)層:
L4,L5,L6都是局部連接層,就像卷積層使用濾波器一樣,在特征圖像的每一個(gè)位置都訓(xùn)練學(xué)習(xí)一組不同的濾波器。由于校正后不同區(qū)域的有不同的統(tǒng)計(jì)特性,卷積網(wǎng)絡(luò)在空間上的穩(wěn)定性的假設(shè)不能成立。比如說,相比于鼻子和嘴巴之間的區(qū)域,眼睛和眉毛之間的區(qū)域展現(xiàn)出非常不同的表觀并且有很高的區(qū)分度。換句話說,通過利用輸入的校正后的圖像,定制了DNN的結(jié)構(gòu)。
使用局部連接層并沒有影響特征提取時(shí)的運(yùn)算負(fù)擔(dān),但是影響了訓(xùn)練的參數(shù)數(shù)量。僅僅是由于有如此大的標(biāo)記人臉庫,我們可以承受三個(gè)大型的局部連接層。局部連接層的輸出單元受到一個(gè)大型的輸入圖塊的影響,可以據(jù)此調(diào)整局部連接層的使用(參數(shù))(不共享權(quán)重)
比如說,L6層的輸出受到一個(gè)74*74*3的輸入圖塊的影響,在校正后的人臉中,這種大的圖塊之間很難有任何統(tǒng)計(jì)上的參數(shù)共享。
頂層:
最后,網(wǎng)絡(luò)頂端的兩層(F7,F(xiàn)8)是全連接的:每一個(gè)輸出單元都連接到所有的輸入。這兩層可以捕捉到人臉圖像中距離較遠(yuǎn)的區(qū)域的特征之間的關(guān)聯(lián)性。比如,眼睛的位置和形狀,與嘴巴的位置和形狀之間的關(guān)聯(lián)性(這部分也含有信息)可以由這兩層得到。第一個(gè)全連接層F7的輸出就是我們?cè)嫉娜四樚卣鞅磉_(dá)向量。
在特征表達(dá)方面,這個(gè)特征向量與傳統(tǒng)的基于LBP的特征描述有很大區(qū)別。傳統(tǒng)方法通常使用局部的特征描述(計(jì)算直方圖)并用作分類器的輸入。
最后一個(gè)全連接層F8的輸出進(jìn)入了一個(gè)K-way的softmax(K是類別個(gè)數(shù)),即可產(chǎn)生類別標(biāo)號(hào)的概率分布。用Ok表示一個(gè)輸入圖像經(jīng)過網(wǎng)絡(luò)后的第k個(gè)輸出,即可用下式表達(dá)輸出類標(biāo)號(hào)k的概率:
訓(xùn)練的目標(biāo)是最大化正確輸出類別(face 的id)的概率。通過最小化每個(gè)訓(xùn)練樣本的叉熵?fù)p失實(shí)現(xiàn)這一點(diǎn)。用k表示給定輸入的正確類別的標(biāo)號(hào),則叉熵?fù)p失是:
通過計(jì)算叉熵?fù)p失L對(duì)參數(shù)的梯度以及使用隨機(jī)梯度遞減的方法來最小化叉熵?fù)p失。
梯度是通過誤差的標(biāo)準(zhǔn)反向傳播來計(jì)算的。非常有趣的是,本網(wǎng)絡(luò)產(chǎn)生的特征非常稀疏。超過75%的頂層特征元素是0。這主要是由于使用了ReLU激活函數(shù)導(dǎo)致的。這種軟閾值非線性函數(shù)在所有的卷積層,局部連接層和全連接層(除了最后一層F8)都使用了,從而導(dǎo)致整體級(jí)聯(lián)之后產(chǎn)生高度非線性和稀疏的特征。稀疏性也與使用使用dropout正則化有關(guān),即在訓(xùn)練中將隨機(jī)的特征元素設(shè)置為0。我們只在F7全連接層使用了dropout.由于訓(xùn)練集合很大,在訓(xùn)練過程中我們沒有發(fā)現(xiàn)重大的過擬合。
給出圖像I,則其特征表達(dá)G(I)通過前饋網(wǎng)絡(luò)計(jì)算出來,每一個(gè)L層的前饋網(wǎng)絡(luò),可以看作是一系列函數(shù):
歸一化:
在最后一級(jí),我們把特征的元素歸一化成0到1,以此降低特征對(duì)光照變化的敏感度。特征向量中的每一個(gè)元素都被訓(xùn)練集中對(duì)應(yīng)的最大值除。然后進(jìn)行L2歸一化。由于我們采用了ReLU激活函數(shù),我們的系統(tǒng)對(duì)圖像的尺度不變性減弱。
對(duì)于輸出的4096-d向量:
先每一維進(jìn)行歸一化,即對(duì)于結(jié)果向量中的每一維,都要除以該維度在整個(gè)訓(xùn)練集上的最大值。
每個(gè)向量進(jìn)行L2歸一化。
2. 驗(yàn)證
2.1 卡方距離
該系統(tǒng)中,歸一化后的DeepFace特征向量與傳統(tǒng)的基于直方圖的特征(如LBP)有一下相同之處:
所有值均為負(fù)
非常稀疏
特征元素的值都在區(qū)間 [0, 1]之間
卡方距離計(jì)算公式如下:
2.2 Siamese network
文章中也提到了端到端的度量學(xué)習(xí)方法,一旦學(xué)習(xí)(訓(xùn)練)完成,人臉識(shí)別網(wǎng)絡(luò)(截止到F7)在輸入的兩張圖片上重復(fù)使用,將得到的2個(gè)特征向量直接用來預(yù)測判斷這兩個(gè)輸入圖片是否屬于同一個(gè)人。這分為以下步驟:
a. 計(jì)算兩個(gè)特征之間的絕對(duì)差別;
b,一個(gè)全連接層,映射到一個(gè)單個(gè)的邏輯單元(輸出相同/不同)。
3. 實(shí)驗(yàn)評(píng)估
3.1 數(shù)據(jù)集
Social Face Classification Dataset(SFC): 4.4M張人臉/4030人
LFW: 13323張人臉/5749人
restricted: 只有是/不是的標(biāo)記
unrestricted:其他的訓(xùn)練對(duì)也可以拿到
unsupervised:不在LFW上訓(xùn)練
Youtube Face(YTF): 3425videos/1595人
result on LFW:
result on YTF:
DeepFace與之后的方法的最大的不同點(diǎn)在于,DeepFace在訓(xùn)練神經(jīng)網(wǎng)絡(luò)前,使用了對(duì)齊方法。論文認(rèn)為神經(jīng)網(wǎng)絡(luò)能夠work的原因在于一旦人臉經(jīng)過對(duì)齊后,人臉區(qū)域的特征就固定在某些像素上了,此時(shí),可以用卷積神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)特征。
本文的模型使用了C++工具箱dlib基于深度學(xué)習(xí)的最新人臉識(shí)別方法,基于戶外臉部數(shù)據(jù)測試庫Labeled Faces in the Wild 的基準(zhǔn)水平來說,達(dá)到了99.38%的準(zhǔn)確率。
更多算法
http://www.gycc.com/trends/face%20recognition/overview/
dlib:http://dlib.net/
數(shù)據(jù)測試庫Labeled Faces in the Wild:http://vis-www.cs.umass.edu/lfw/
模型提供了一個(gè)簡單的face_recognition命令行工具讓用戶通過命令就能直接使用圖片文件夾進(jìn)行人臉識(shí)別操作。
在圖片中捕捉人臉特征
在一張圖片中捕捉到所有的人臉
找到并處理圖片中人臉的特征
找到每個(gè)人眼睛、鼻子、嘴巴和下巴的位置和輪廓。
import face_recognition
image = face_recognition.load_image_file("your_file.jpg")
face_locations = face_recognition.face_locations(image)
捕捉臉部特征有很重要的用途,當(dāng)然也可以用來進(jìn)行圖片的數(shù)字美顏digital make-up(例如美圖秀秀)
digital make-up//github.com/ageitgey/face_recognition/blob/master/examples/digital_makeup.py
識(shí)別圖片中的人臉
識(shí)別誰出現(xiàn)在照片里
安裝步驟
本方法支持Python3/python2,我們只在macOS和Linux中測試過,還不知是否適用于Windows。
使用pypi的pip3安裝此模塊(或是Python 2的pip2)
重要提示:在編譯dlib時(shí)可能會(huì)出問題,你可以通過安裝來自源(而不是pip)的dlib來修復(fù)錯(cuò)誤,請(qǐng)見安裝手冊(cè)How to install dlib from source
https://gist.github.com/ageitgey/629d75c1baac34dfa5ca2a1928a7aeaf
通過手動(dòng)安裝dlib,運(yùn)行pip3 install face_recognition來完成安裝。
使用方法命令行界面
當(dāng)你安裝face_recognition,你能得到一個(gè)簡潔的叫做face_recognition的命令行程序,它能幫你識(shí)別一張照片或是一個(gè)照片文件夾中的所有人臉。
首先,你需要提供一個(gè)包含一張照片的文件夾,并且你已經(jīng)知道照片中的人是誰,每個(gè)人都要有一張照片文件,且文件名需要以該人的姓名命名;
然后你需要準(zhǔn)備另外一個(gè)文件夾,里面裝有你想要識(shí)別人臉照片;
接下來你只用運(yùn)行face_recognition命令,程序能夠通過已知人臉的文件夾識(shí)別出未知人臉照片中的人是誰;
針對(duì)每個(gè)人臉都要一行輸出,數(shù)據(jù)是文件名加上識(shí)別到的人名,以逗號(hào)分隔。
如果你只是想要知道每個(gè)照片中的人名而不要文件名,可以進(jìn)行如下操作:
-
人臉識(shí)別
+關(guān)注
關(guān)注
76文章
4002瀏覽量
81673 -
人臉檢測
+關(guān)注
關(guān)注
0文章
80瀏覽量
16436
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論