0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

計(jì)算機(jī)視覺的應(yīng)用場(chǎng)景和深度學(xué)習(xí)背后的技術(shù)原理詳解

傳感器技術(shù) ? 2017-12-06 14:32 ? 次閱讀

目前,深度學(xué)習(xí)幾乎成了計(jì)算機(jī)視覺領(lǐng)域的標(biāo)配,也是當(dāng)下人工智能領(lǐng)域最熱門的研究方向。計(jì)算機(jī)視覺的應(yīng)用場(chǎng)景和深度學(xué)習(xí)背后的技術(shù)原理是什么呢?下面讓我們來(lái)一探究竟。

計(jì)算機(jī)視覺的應(yīng)用

什么是計(jì)算機(jī)視覺呢?形象地說,計(jì)算機(jī)視覺就是給計(jì)算機(jī)裝上眼睛(照相機(jī))和大腦(算法),讓計(jì)算機(jī)可以感知周圍的環(huán)境。目前計(jì)算機(jī)視覺研究主要集中在基礎(chǔ)應(yīng)用場(chǎng)景,像圖片分類、物體識(shí)別、人臉的3D建模等。

識(shí)別物體是圖片分類的一個(gè)比較常見的應(yīng)用,例如一個(gè)簡(jiǎn)單的貓咪識(shí)別模型,我們首先要給計(jì)算機(jī)定義模型,然后準(zhǔn)備大量貓咪的照片去訓(xùn)練這個(gè)模型,讓計(jì)算機(jī)能識(shí)別出來(lái),輸一張圖片的時(shí)候能識(shí)別出圖片是不是貓咪。正常情況下計(jì)算機(jī)模型能識(shí)別得比較準(zhǔn)確,但是當(dāng)我們輸入了一些有遮擋、形態(tài)多變或者角度、光照不一的圖片時(shí),之前我們建立的模型就識(shí)別不出來(lái)。這就是計(jì)算機(jī)視覺在應(yīng)用中存在的難點(diǎn)問題。

深度學(xué)習(xí)背后的技術(shù)原理

在計(jì)算機(jī)視覺領(lǐng)域中是怎么運(yùn)用深度學(xué)習(xí)來(lái)解決問題的呢?深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)的一種,這里先簡(jiǎn)單介紹下機(jī)器學(xué)習(xí)。

機(jī)器學(xué)習(xí)的本質(zhì)其實(shí)是為了找到一個(gè)函數(shù),讓這個(gè)函數(shù)在不同的領(lǐng)域會(huì)發(fā)揮不同的作用。像語(yǔ)音識(shí)別領(lǐng)域,這個(gè)函數(shù)會(huì)把一段語(yǔ)音識(shí)別成一段文字;圖像識(shí)別的領(lǐng)域,這個(gè)函數(shù)會(huì)把一個(gè)圖像映射到一個(gè)分類;下圍棋的時(shí)候根據(jù)棋局和規(guī)則進(jìn)行博弈;對(duì)話,是根據(jù)當(dāng)前的對(duì)話生成下一段對(duì)話。

機(jī)器學(xué)習(xí)離不開學(xué)習(xí)兩個(gè)字,根據(jù)不同的學(xué)習(xí)方式,可以分為監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)兩種方式。

監(jiān)督學(xué)習(xí)中,算法和數(shù)據(jù)是模型的核心所在。在監(jiān)督學(xué)習(xí)中最關(guān)鍵的一點(diǎn)是,我們對(duì)訓(xùn)練的每個(gè)數(shù)據(jù)都要打上標(biāo)簽,然后通過把這些訓(xùn)練數(shù)據(jù)輸入到算法模型經(jīng)過反復(fù)訓(xùn)練以后,每經(jīng)過一次訓(xùn)練都會(huì)減少算法模型的預(yù)計(jì)輸出和標(biāo)簽數(shù)據(jù)的差距。通過大量的訓(xùn)練,算法模型基本上穩(wěn)定下來(lái)以后,我們就可以把這個(gè)模型在測(cè)試數(shù)據(jù)集上驗(yàn)證模型的準(zhǔn)確性。這就是整個(gè)監(jiān)督學(xué)習(xí)的過程,監(jiān)督學(xué)習(xí)目前在圖片分類上應(yīng)用得比較多。

再來(lái)看非監(jiān)督學(xué)習(xí)。跟監(jiān)督學(xué)習(xí)不同的地方是,非監(jiān)督學(xué)習(xí)不需要為所有的訓(xùn)練數(shù)據(jù)都打上標(biāo)簽。非監(jiān)督學(xué)習(xí)主要應(yīng)用在兩個(gè)大類,第一類是做聚類分析,聚類分析是把一組看似無(wú)序的數(shù)據(jù)進(jìn)行分類分組,以達(dá)到能夠更加更好理解的目的;另外是做自動(dòng)編碼器,在數(shù)據(jù)分析的時(shí)候,原始數(shù)據(jù)量往往比較大,除了包含一些冗余的數(shù)據(jù),還會(huì)包含一些對(duì)分析結(jié)果不重要的數(shù)據(jù)。自動(dòng)編碼器主要是對(duì)原始數(shù)據(jù)做降維操作,把冗余的數(shù)據(jù)去掉,提高后面數(shù)據(jù)分析的效率。通過不同的學(xué)習(xí)方式獲取到數(shù)據(jù)后,算法是接下來(lái)非常重要的一環(huán)。算法之于計(jì)算機(jī)就像大腦對(duì)于我們?nèi)祟?,選擇一個(gè)好的算法也是特別重要的。

上面是ImaegNet競(jìng)賽的結(jié)果,2012年以前圖片分類采用的機(jī)器學(xué)習(xí)的模型是特征+支持向量機(jī)的模型,2012年以后是卷積神經(jīng)網(wǎng)絡(luò)的模型,卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺領(lǐng)域發(fā)揮著至關(guān)重要的作用。為什么2014年以后卷積神經(jīng)網(wǎng)絡(luò)才發(fā)揮它的作用呢?我們先來(lái)看看神經(jīng)網(wǎng)絡(luò)。

神經(jīng)網(wǎng)絡(luò)

神經(jīng)網(wǎng)絡(luò)是受人腦神經(jīng)元結(jié)構(gòu)的啟發(fā),研究者認(rèn)為人腦所有的神經(jīng)元都是分層的,可以通過不同的層次學(xué)習(xí)不一樣的特征,由簡(jiǎn)單到復(fù)雜地模擬出各種特征。

上圖是計(jì)算機(jī)應(yīng)用數(shù)學(xué)的方式來(lái)模擬人腦中神經(jīng)元的示意圖。a1到ak是信號(hào)的輸入,神經(jīng)元會(huì)對(duì)輸入信號(hào)進(jìn)行兩次變換。第一部分是線性變換,因?yàn)樯窠?jīng)元會(huì)對(duì)自己感興趣的信號(hào)加一個(gè)權(quán)重;第二部分是非線性變換。

神經(jīng)網(wǎng)絡(luò)就是由許多的神經(jīng)元級(jí)聯(lián)而形成的,每一個(gè)神經(jīng)元都經(jīng)過線性變換和非線性變換,為什么會(huì)有非線性變換?從數(shù)學(xué)上看,沒有非線性變換,不管你神經(jīng)網(wǎng)絡(luò)層次有多深都等價(jià)于一個(gè)神經(jīng)元。如果沒有非線性變換,神經(jīng)網(wǎng)絡(luò)深度的概念就沒有什么意義了。

這是大家知道的神經(jīng)元網(wǎng)絡(luò)整體的模型,我們具體怎么來(lái)訓(xùn)練神經(jīng)網(wǎng)絡(luò)呢?

第一步,定義一個(gè)網(wǎng)絡(luò)模型,初始化所有神經(jīng)網(wǎng)絡(luò)的權(quán)重和偏置。定義好網(wǎng)絡(luò)模型以后再定義好這個(gè)模型的代價(jià)函數(shù),代價(jià)函數(shù)就是我們的預(yù)測(cè)數(shù)據(jù)和標(biāo)簽數(shù)據(jù)的差距,這個(gè)差距越小,說明模型訓(xùn)練得越成功。第一次訓(xùn)練的時(shí)候會(huì)初始化所有神經(jīng)元的參數(shù)。輸入所有訓(xùn)練數(shù)據(jù)以后,通過當(dāng)前的模型計(jì)算出所有的預(yù)測(cè)值,計(jì)算預(yù)測(cè)值以后和標(biāo)簽數(shù)據(jù)比較,看一下預(yù)測(cè)值和實(shí)際值有多大的差距。

第二步,不斷優(yōu)化差距,使差距越來(lái)越小。神經(jīng)網(wǎng)絡(luò)根據(jù)導(dǎo)數(shù)的原理發(fā)明了反向傳播和梯度下降算法,通過N次訓(xùn)練后,標(biāo)簽數(shù)據(jù)與預(yù)測(cè)值之間的差距就會(huì)越來(lái)越小,直到趨于一個(gè)極致。這樣的話,所有神經(jīng)元的權(quán)重、偏置這些參數(shù)都訓(xùn)練完成了,我們的模型就確定下來(lái)了。接下來(lái)就可以在測(cè)試集上用測(cè)試數(shù)據(jù)來(lái)驗(yàn)證模型的準(zhǔn)確率。

卷積神經(jīng)網(wǎng)絡(luò)

以上所講的都是一般的全連接神經(jīng)網(wǎng)絡(luò),接下來(lái)進(jìn)入卷積神經(jīng)網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)是專門針對(duì)圖片處理方面的神經(jīng)網(wǎng)絡(luò)。卷積神經(jīng)網(wǎng)絡(luò)首先會(huì)輸入一張圖片,這張圖片是30×30,有三個(gè)顏色通道的數(shù)據(jù),這是輸入層。下面是卷積層,有一個(gè)卷積核的概念,每一個(gè)卷積核提取圖片的不同特征。

提取出來(lái)以后到池化層,就是把卷積層的數(shù)據(jù)規(guī)??s小,減少數(shù)據(jù)的復(fù)雜度。卷積和池化連起來(lái)我們叫做一個(gè)隱層,一個(gè)卷積神經(jīng)網(wǎng)絡(luò)會(huì)包含很多個(gè)隱層,隱層之后是全連接層,全連接層的目的是把前面經(jīng)過多個(gè)卷積池化層的特征把數(shù)據(jù)平鋪開,形成特征向量,我們把特征向量輸入到分類器,對(duì)圖片進(jìn)行分類。

簡(jiǎn)單來(lái)說,卷積神經(jīng)網(wǎng)絡(luò)更適合計(jì)算機(jī)視覺主要有兩個(gè)原因,一是參數(shù)共享,另外一個(gè)是稀疏連接。

基于深度學(xué)習(xí)的人臉識(shí)別算法模型

以上是深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域的相關(guān)應(yīng)用以及它背后的技術(shù)原理,接下來(lái)看看基于深度學(xué)習(xí)的人臉識(shí)別算法模型。先看一下人臉識(shí)別的應(yīng)用場(chǎng)景,主要分三個(gè)方面:一是1:1的場(chǎng)景,如過安檢的時(shí)身份證和人臉比對(duì)、證券開戶;二是1:N的場(chǎng)景,比如說公安部要在大量的視頻中檢索犯罪嫌疑人;三是大數(shù)據(jù)分析場(chǎng)景,主要是表情分類,還有醫(yī)學(xué)的分析等。

上圖主要是人臉識(shí)別簡(jiǎn)單的流程,右邊的是訓(xùn)練模型,有人臉的大數(shù)據(jù)庫(kù),經(jīng)過Gabor、LBP等經(jīng)驗(yàn)描述子,或深度學(xué)習(xí)算法提取特征模型,這個(gè)模型部署在應(yīng)用上,應(yīng)用通過攝像頭、視頻獲取到人臉以后做預(yù)處理,進(jìn)行特征提取,特征比對(duì),最后輸出結(jié)果,這是比較通用的人臉識(shí)別的流程。

DeepID算法

DeepID算法的目的是識(shí)別兩張圖片,最后的輸出是兩張圖片的相似度。輸入圖片A和圖片B,經(jīng)過DeepID卷積神經(jīng)網(wǎng)絡(luò)模型會(huì)計(jì)算出向量A和向量B,合并成向量AB。然后將向量AB輸入分類器,算出向量AB的相似度,最后以這個(gè)相似度區(qū)分這兩個(gè)圖片是不是同一類。

這里要提到的兩個(gè)模型,一是DeepID的模型,二是分類器的模型。DeepID模型是用卷積神經(jīng)網(wǎng)絡(luò)算法訓(xùn)練的,最后的應(yīng)用是把卷積神經(jīng)網(wǎng)絡(luò)后面的softmax分類層去掉,得到softmax前面的特征向量;分類器模型是比較經(jīng)典的如支持向量機(jī)/聯(lián)合貝葉斯分類。訓(xùn)練過程中,把訓(xùn)練樣本分成五份,四份用來(lái)訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò),一份用來(lái)訓(xùn)練分類器,可以相互印證。

DeepID除了在網(wǎng)絡(luò)模型上做的工作,還會(huì)對(duì)圖片做預(yù)處理。像Patch的處理,按照?qǐng)D片以人臉的某一個(gè)部位為中心生成固定大小的圖片,然后對(duì)每一個(gè)特定的Patch訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)。一張圖片輸入后,切分成多個(gè)patch,分別輸入到對(duì)應(yīng)的卷積神經(jīng)網(wǎng)絡(luò)。每一個(gè)卷積神經(jīng)網(wǎng)絡(luò)輸出一個(gè)向量,通過降維的算法,把所有patch對(duì)應(yīng)的輸出向量進(jìn)行處理,去除冗余信息,得到人臉的向量表示。

最后在比較兩張人臉時(shí),就是分別將兩張人臉的這個(gè)向量輸入分類器得到相似度結(jié)果的。這里多patch切分有一個(gè)優(yōu)勢(shì),比如在現(xiàn)實(shí)應(yīng)用中有一些人的臉部是被遮擋的,由于它是分為不同的patch,這樣的場(chǎng)景下魯棒性會(huì)比較好。

DeepFace算法

再來(lái)看DeepFace算法。這是人臉對(duì)齊的流程,這張圖是史泰龍的側(cè)臉圖片,第一步是把人臉截取出來(lái),對(duì)人臉上面68個(gè)基本點(diǎn),描述出基本點(diǎn)以后,用三角剖分的算法把68個(gè)基本點(diǎn)連起來(lái),然后將標(biāo)準(zhǔn)的人臉模型運(yùn)用到三角剖分上,這樣標(biāo)準(zhǔn)的人臉模型就具備了這樣的深度。

經(jīng)過仿射變形后,將側(cè)臉模型轉(zhuǎn)成正臉模型,最后把這個(gè)模型應(yīng)用到具體的圖片上,就得到了人的正臉圖片。這個(gè)算法的主要作用是通過一些模型將人物的側(cè)臉轉(zhuǎn)成正臉,以便做進(jìn)一步的人臉識(shí)別/人臉分類 。

DeepFace神經(jīng)網(wǎng)絡(luò)如圖所示,前面三個(gè)卷積層比較普通,是用來(lái)提取臉部的一些基本特征;后面三個(gè)卷積層有一些改進(jìn),用的是參數(shù)不共享的卷積核,我們提到卷積核的基本特征有一個(gè)是參數(shù)是共享的,因?yàn)檠芯空J(rèn)為圖片中不同的部位一些基本特征是相似的。

但在這個(gè)算法中,經(jīng)過人臉對(duì)齊之后,它的不同的區(qū)域會(huì)有不同的基本特征,所以這里運(yùn)用了參數(shù)不共享的卷積核。參數(shù)不共享,就不會(huì)發(fā)揮出卷積核參數(shù)少的優(yōu)勢(shì),這樣可能增加訓(xùn)練的復(fù)雜度。

FaceNet算法

FaceNet算法是谷歌人臉識(shí)別的一種算法,F(xiàn)aceNet算法提出三元組的概念:三張圖片放在一起,兩張圖片是同一個(gè)人的,一張圖片不是同一個(gè)人的。如果一個(gè)三元組中,同一個(gè)人的圖片的距離要大于不同人之間的距離,那么經(jīng)過學(xué)習(xí)以后,這個(gè)三元組中同一個(gè)人的圖片之間的距離,會(huì)小于不同人的圖片之間的距離。它不用做分類,直接計(jì)算出兩張圖片之間的距離。

其他算法

其他算法如FR+FCN,通過神經(jīng)網(wǎng)絡(luò)去訓(xùn)練,當(dāng)你得到一個(gè)人側(cè)臉照的時(shí)候,可以通過神經(jīng)網(wǎng)絡(luò)生成正面照;Face+baidu是傳統(tǒng)的卷積網(wǎng)絡(luò),建立在大數(shù)據(jù)的基礎(chǔ)上,訓(xùn)練了數(shù)百萬(wàn)張人臉。

Pose+Shape+expression augmentation,這篇論文是通過三個(gè)變量擴(kuò)充數(shù)據(jù)集,讓數(shù)據(jù)搜集工作變得容易;CNN-3DMM,它在標(biāo)準(zhǔn)的3D人臉模型基礎(chǔ)上,訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò),來(lái)給標(biāo)準(zhǔn)3D模型生成不同的參數(shù),這個(gè)神經(jīng)網(wǎng)絡(luò)會(huì)根據(jù)不同的圖片生成不同的參數(shù),給個(gè)體建立不一樣的3D模型。

基于DeepID算法的人臉?biāo)阉黜?xiàng)目

最后介紹一下我們?cè)鲞^的一個(gè)人臉識(shí)別模型的項(xiàng)目。活動(dòng)攝影承接商需要把一些會(huì)場(chǎng)活動(dòng)、體育賽事等活動(dòng)照片拍攝下來(lái)以后上傳到他們的網(wǎng)站上,因?yàn)閳D片有幾百上千張,活動(dòng)參與者很難找到自己的圖片。如果用人臉識(shí)別的模型,就可以把自己的臉部拍下來(lái)上傳,在圖片集中快速找到自己的照片。

我們看一下它整體的架構(gòu)。右邊是人臉庫(kù)的導(dǎo)入,活動(dòng)攝影承接商獎(jiǎng)會(huì)場(chǎng)拍攝的一千張照片導(dǎo)入搜索目標(biāo)庫(kù)。導(dǎo)入以后做多patch預(yù)處理,運(yùn)用DeepID的算法,計(jì)算每張圖片各patch的特征向量,放到特征向量庫(kù)里,建立一個(gè)從特征向量到原始圖片的索引。

左邊的部分是用戶搜索,拍攝了自己的頭像后,把它上傳上來(lái)進(jìn)行搜索,后臺(tái)同樣先對(duì)用戶頭像做多patch切分,通過DeepID模型計(jì)算出用戶頭像的特征向量,然后在特征向量庫(kù)中逐步比對(duì)目標(biāo)特征向量,將相似度最高的N個(gè)特征向量檢索出來(lái),最后通過索引查到原始圖片,返回給用戶。

以上是深度學(xué)習(xí)背后的技術(shù)原理以及它在計(jì)算機(jī)視覺領(lǐng)域常見的應(yīng)用,希望通過對(duì)這些原理的解析及應(yīng)用的分享,讓大家更加直觀快速地了解人工智能技術(shù)層面的基礎(chǔ)概念,并且對(duì)人工智能技術(shù)的學(xué)習(xí)和運(yùn)用有所啟發(fā)。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴

原文標(biāo)題:淺談深度學(xué)習(xí)的技術(shù)原理及其在計(jì)算機(jī)視覺的應(yīng)用

文章出處:【微信號(hào):WW_CGQJS,微信公眾號(hào):傳感器技術(shù)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    讓機(jī)器“看見”—計(jì)算機(jī)視覺入門及實(shí)戰(zhàn) 第二期基礎(chǔ)技術(shù)

    、圖像檢索等技術(shù)的主流方法和基本思路,并從數(shù)據(jù)處理、模型訓(xùn)練、系統(tǒng)優(yōu)化以及模型評(píng)測(cè)的角度講解解決實(shí)際問題時(shí)的應(yīng)對(duì)方法,讓大家對(duì)計(jì)算機(jī)視覺技術(shù)有一個(gè)基本了解,作為以后深入
    發(fā)表于 09-04 17:56

    請(qǐng)問計(jì)算機(jī)視覺深度學(xué)習(xí)要看什么書?

    計(jì)算機(jī)視覺深度學(xué)習(xí),看這本書就夠了
    發(fā)表于 05-21 12:43

    深度學(xué)習(xí)計(jì)算機(jī)視覺領(lǐng)域圖像應(yīng)用總結(jié) 精選資料下載

    簡(jiǎn)單的回顧的話,2006年Geoffrey Hinton的論文點(diǎn)燃了“這把火”,現(xiàn)在已經(jīng)有不少人開始潑“冷水”了,主要是AI泡沫太大,而且深度學(xué)習(xí)不是包治百病的藥方。計(jì)算機(jī)視覺不是
    發(fā)表于 07-28 08:22

    深度學(xué)習(xí)與傳統(tǒng)計(jì)算機(jī)視覺簡(jiǎn)介

    文章目錄1 簡(jiǎn)介1.1 深度學(xué)習(xí)與傳統(tǒng)計(jì)算機(jī)視覺1.2 性能考量1.3 社區(qū)支持2 結(jié)論3 參考在計(jì)算機(jī)
    發(fā)表于 12-23 06:17

    深度學(xué)習(xí)是否會(huì)取代傳統(tǒng)的計(jì)算機(jī)視覺

    理解傳統(tǒng)的計(jì)算機(jī)視覺實(shí)際上真的有助于你更好的使用深度學(xué)習(xí)。例如,計(jì)算機(jī)視覺中最常見的神經(jīng)網(wǎng)絡(luò)是卷
    的頭像 發(fā)表于 04-02 10:37 ?6111次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>是否會(huì)取代傳統(tǒng)的<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>?

    深度學(xué)習(xí)不能取代計(jì)算機(jī)視覺技術(shù)背后的真正原因

    深度學(xué)習(xí)只是一種 計(jì)算機(jī)視覺 工具,而不是包治百病的良藥,不要因?yàn)榱餍芯鸵晃兜厥褂盟鹘y(tǒng)的計(jì)算機(jī)視覺
    的頭像 發(fā)表于 04-05 11:37 ?4680次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>不能取代<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b><b class='flag-5'>技術(shù)</b><b class='flag-5'>背后</b>的真正原因

    計(jì)算機(jī)視覺零基礎(chǔ)入門

    那么這個(gè)爆款應(yīng)用的背后用到了哪些計(jì)算機(jī)視覺技術(shù)?掌握這些技術(shù)需要通過哪些學(xué)習(xí)路徑?
    的頭像 發(fā)表于 05-31 10:44 ?9085次閱讀

    技術(shù) | 深度學(xué)習(xí)計(jì)算機(jī)視覺領(lǐng)域的瓶頸已至

    霍金的弟子,約翰霍普金斯大學(xué)教授Alan Yuille提出“深度學(xué)習(xí)計(jì)算機(jī)視覺領(lǐng)域的瓶頸已至。
    的頭像 發(fā)表于 07-05 10:07 ?2467次閱讀

    深度學(xué)習(xí)計(jì)算機(jī)視覺上的四大應(yīng)用

    計(jì)算機(jī)視覺中比較成功的深度學(xué)習(xí)的應(yīng)用,包括人臉識(shí)別,圖像問答,物體檢測(cè),物體跟蹤。
    的頭像 發(fā)表于 08-24 16:16 ?4370次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在<b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>上的四大應(yīng)用

    計(jì)算機(jī)視覺深度學(xué)習(xí)在AR中的應(yīng)用熱點(diǎn)趨勢(shì)有哪些

    的小公司創(chuàng)業(yè)機(jī)會(huì)。 那么,AR識(shí)別技術(shù)背后的算法原理是什么,以及計(jì)算機(jī)視覺深度學(xué)習(xí)在AR中的應(yīng)
    的頭像 發(fā)表于 12-26 11:22 ?2697次閱讀

    現(xiàn)代計(jì)算機(jī)視覺技術(shù)在過去10年里取得了顯著進(jìn)展

    介紹使圖像分割的方法,包括傳統(tǒng)方法和深度學(xué)習(xí)方法,以及應(yīng)用場(chǎng)景。 基于人工智能和深度學(xué)習(xí)方法的現(xiàn)代計(jì)算機(jī)
    的頭像 發(fā)表于 12-31 09:45 ?2437次閱讀

    深度學(xué)習(xí)和傳統(tǒng)計(jì)算機(jī)視覺技術(shù)在新興領(lǐng)域的比較

    是不是深度學(xué)習(xí)就可以解決所有問題呢?是不是它就比傳統(tǒng)計(jì)算機(jī)視覺方法好呢?但是深度學(xué)習(xí)無(wú)法解決所有
    的頭像 發(fā)表于 11-28 11:01 ?1433次閱讀

    計(jì)算機(jī)視覺中的九種深度學(xué)習(xí)技術(shù)

    計(jì)算機(jī)視覺中仍有許多具有挑戰(zhàn)性的問題需要解決。然而,深度學(xué)習(xí)方法正在針對(duì)某些特定問題取得最新成果。 在最基本的問題上,最有趣的不僅僅是深度
    發(fā)表于 08-21 09:56 ?497次閱讀
    <b class='flag-5'>計(jì)算機(jī)</b><b class='flag-5'>視覺</b>中的九種<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>技術(shù)</b>

    深度學(xué)習(xí)計(jì)算機(jī)視覺領(lǐng)域的應(yīng)用

    深度學(xué)習(xí)技術(shù)的引入,極大地推動(dòng)了計(jì)算機(jī)視覺領(lǐng)域的發(fā)展,使其能夠處理更加復(fù)雜和多樣化的視覺任務(wù)。本
    的頭像 發(fā)表于 07-01 11:38 ?426次閱讀

    計(jì)算機(jī)視覺的五大技術(shù)

    計(jì)算機(jī)視覺作為深度學(xué)習(xí)領(lǐng)域最熱門的研究方向之一,其技術(shù)涵蓋了多個(gè)方面,為人工智能的發(fā)展開拓了廣闊的道路。以下是對(duì)
    的頭像 發(fā)表于 07-10 18:26 ?900次閱讀