0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

山世光談深度學(xué)習(xí)生產(chǎn)線、以及中科視拓深度學(xué)習(xí)算法平臺SeeTaaS

5b9O_deeplearni ? 2017-12-26 13:41 ? 次閱讀

編者按:人工智能已成為國家級的戰(zhàn)略目標(biāo), 這激發(fā)了各行各業(yè)的AI熱潮。而目前AI人才的稀缺以及開發(fā)任務(wù)的繁重,限制了深度學(xué)習(xí)落地,因此AI產(chǎn)業(yè)迫切需要賦能平臺。中科視拓董事長山世光研究員,在2017鈦媒體T-EDGE年度國際盛典上,談深度學(xué)習(xí)生產(chǎn)線、以及中科視拓通用深度學(xué)習(xí)算法平臺SeeTaaS。

圖像識別或者人臉識別是今年以來AI實(shí)現(xiàn)最大爆發(fā)的領(lǐng)域。對于這些技術(shù)的實(shí)現(xiàn),中科院計(jì)算所研究員、中科視拓創(chuàng)始人、董事長兼CTO山世光,將其歸結(jié)為一個(gè)簡單的公式,那就是“A+B+C”。A是算法,B是Bigdata,C是Computing。

12月16日,在2017鈦媒體T-EDGE年度國際盛典上,山世光提到,2012年之后,因?yàn)榛ヂ?lián)網(wǎng)和物聯(lián)網(wǎng)的發(fā)展,我們有更多機(jī)會收集大量數(shù)據(jù),再加上GPU等高性能計(jì)算設(shè)備的普及,我們有機(jī)會完成大規(guī)模的機(jī)器訓(xùn)練。特別的,上面ABC三點(diǎn)中的A,即算法,最主要的就是指深度學(xué)習(xí)(Deep Learning)。

深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域,解決了或者推動了一大類非線性的映射函數(shù)學(xué)習(xí)的問題。這樣的方式,使AI開發(fā)的方法論產(chǎn)生了極大變化。

但與此同時(shí),從落地角度來看,依賴于有標(biāo)注大數(shù)據(jù)的深度學(xué)習(xí)也還存在非常多問題。

首先,個(gè)性化需求非常多,可批量復(fù)制的“標(biāo)品”比較少。以巡邏機(jī)器人為例,可能需要開發(fā)塑料瓶子檢測系統(tǒng),也可能是塑料袋識別,甚至是爛白菜的識別,這么多不同的物體的識別是非常重的開發(fā)任務(wù)。

其次,從計(jì)算角度講,深度學(xué)習(xí)的計(jì)算成本比較高,端側(cè)的計(jì)算能力需求較大。而且AI技術(shù)的生產(chǎn)效率現(xiàn)在還比較低。如何加快生產(chǎn)效率,需要大量懂深度學(xué)習(xí)的專業(yè)算法人才,而現(xiàn)在并沒有這么多的人才儲備。

現(xiàn)階段,AI人才奇缺。行業(yè)的碩士畢業(yè)生大概30-50萬年薪,博士是50-80萬年薪。對比人才數(shù)量的稀缺,開發(fā)任務(wù)卻十分繁重,如果每個(gè)任務(wù)都做要3-5個(gè)月才能完成,這是"災(zāi)難性"的事情。

以下是中科視拓創(chuàng)始人董事長兼CTO山世光演講發(fā)言:

非常榮幸有機(jī)會來到鈦媒體今年的年度盛典給大家做一次分享。

如果說創(chuàng)業(yè),我是一個(gè)新兵。我在中科院系統(tǒng)工作了20年,從事基礎(chǔ)研究和應(yīng)用技術(shù)研發(fā)工作。我今天的分享有很多內(nèi)容跟技術(shù)相關(guān)。我演講的題目叫《計(jì)算機(jī)視覺技術(shù)現(xiàn)狀展望和產(chǎn)業(yè)化》。

首先,我們說計(jì)算機(jī)視覺是什么樣的學(xué)科,要做什么的事情?

很多人不了解這件事為什么那么難?如果看一下我們需要處理的對象,就會發(fā)現(xiàn)它確實(shí)是非常難的任務(wù)。

我們所謂的圖像是用攝像頭來捕捉物體表面反射的不同顏色的光,進(jìn)行采樣,每個(gè)點(diǎn)即像素都用紅綠藍(lán)三個(gè)不同的分量數(shù)值表示不同的顏色。所以,到了計(jì)算機(jī)里面,每幅圖像就是很多很多0-255之間的整數(shù)值。大家看這些數(shù)。相信沒有一個(gè)人在非常短的時(shí)間內(nèi),能夠通過觀察這些數(shù)告訴我圖像里的內(nèi)容是什么。計(jì)算機(jī)視覺要完成的就是這樣的任務(wù),通過對這些數(shù)的分析完成對圖像內(nèi)容的理解。

這次人工智能的浪潮,首先在語音識別和圖像識別領(lǐng)域取得了顯著的進(jìn)步,并進(jìn)一步引發(fā)了AI在更多領(lǐng)域的應(yīng)用。

從圖像識別或計(jì)算機(jī)視覺角度講,在2012年,深度學(xué)習(xí)首次在Imagnet評測數(shù)據(jù)集上應(yīng)用,一下子將分類錯(cuò)誤率降低了10個(gè)百分點(diǎn)。從圖像分類的角度來講,在2011年,圖像分類錯(cuò)誤率是26%,到了2012年,利用深度學(xué)習(xí)之后,下降到16%。到了2016年,隨著深度學(xué)習(xí)模型深度不斷加深,錯(cuò)誤率進(jìn)一步下降到了2.3%。也就是說,大概在5年時(shí)間里,圖像識別率的錯(cuò)誤率降低了10倍。

下面是其他五個(gè)深度學(xué)習(xí)帶來重要進(jìn)步的典型例子。

在物體檢測領(lǐng)域。所謂物體檢測就是提供給一張照片,把照片里不同的物體,如車、人等物體框出來。2013年,在Imagnet測試集上檢測正確率只有23%,到了2017年,正確率達(dá)到了73%,在視頻里尋找30類物體也達(dá)到80%的精度。

在視頻監(jiān)控領(lǐng)域,我們希望能夠?qū)θ恕④?、物進(jìn)行檢測識別,利用深度學(xué)習(xí),現(xiàn)在很多系統(tǒng)包括中科視拓的技術(shù)都可以實(shí)現(xiàn)對人、車、騎行的準(zhǔn)確檢測、跟蹤以及對性別、車型等屬性的大致分類。

在圖像分割領(lǐng)域,例如為了實(shí)現(xiàn)自動駕駛,給一幅圖像之后,我們希望算法能夠知道哪塊是道路、哪塊是樹木、哪塊是建筑,這是一個(gè)分割問題。從2013年到2017年,分割的準(zhǔn)確率也從50%提高到了86.9%。

還有一個(gè)任務(wù)從2015年左右才開始逐漸得到重視,即所謂的“看圖作文”,就是在提供一幅圖像之后,希望計(jì)算機(jī)能夠生成一句或一段文本描述圖像里的內(nèi)容。在過去兩三年里,這一技術(shù)得到了非常大的進(jìn)步,有些系統(tǒng)產(chǎn)生的文本描述已經(jīng)可以和人對這個(gè)圖像的描述媲美,甚至有些普通人已經(jīng)不能夠判斷到底是機(jī)器自動生成的一段話,還是真人寫出來的一段話。實(shí)現(xiàn)這一任務(wù)采用的方法也是以深度學(xué)習(xí)為基礎(chǔ)的。

還有一些類似藝術(shù)創(chuàng)作的技術(shù)進(jìn)展,比如我們可以通過計(jì)算給一幅圖像轉(zhuǎn)化風(fēng)格,把一個(gè)人的頭發(fā)顏色改掉,加上一個(gè)劉海,或者加上眼鏡,所產(chǎn)生的圖像可以以假亂真;我們也可以把一副普通的圖像變成莫奈風(fēng)格的油畫,把馬變成斑馬,把冬天的照片變成夏天的照片。

上個(gè)月,iPhoneX的發(fā)布使我們進(jìn)一步對人臉識別應(yīng)用有了更加深刻的認(rèn)識。其實(shí)在人臉識別領(lǐng)域,過去兩到三年,也出現(xiàn)了2-4個(gè)數(shù)量級的錯(cuò)誤率下降。蘋果聲稱iPhone X所采用的FaceID錯(cuò)誤率大概在百萬分之一,意味著如果有一百萬個(gè)人撿到你的手機(jī),只有一個(gè)人可以冒充你解鎖成功。因?yàn)樗捎玫?a href="http://www.ttokpm.com/v/tag/117/" target="_blank">傳感器是RGBD相機(jī),里面不僅有彩色照片,還有深度信息、近紅外信息,同時(shí)在注冊階段也會捕捉你的多幅照片,以及在識別階段也是近距離進(jìn)場的識別等等,這些方式都使得iPhone X的FaceID識別任務(wù)成為人臉識別領(lǐng)域一個(gè)相對比較容易的任務(wù)。其實(shí)三星Note3幾年前就已經(jīng)可以用人臉識別解鎖,華為也在去年與我們合作將人臉識別應(yīng)用到了其榮耀Magic手機(jī)上去實(shí)現(xiàn)對手機(jī)的半解鎖。

其實(shí)人臉識別有非常多不同的應(yīng)用場景,手機(jī)的應(yīng)用只是其中之一,即使是一比一驗(yàn)證你是不是你的任務(wù),也有不同的應(yīng)用場景。比如,在機(jī)場、車站等應(yīng)用場景,用身份證中的卡內(nèi)人臉照片和持卡人人臉比對,在過去3-4年里錯(cuò)誤率大概下降了2-4個(gè)數(shù)量級,達(dá)到了萬分之一甚至更低的錯(cuò)誤率,即有一萬個(gè)人試圖冒充你,只有一個(gè)人可能成功,在這種情況下,本人持自己身份證可以有95%以上的正確識別率。企業(yè)員工刷卡后進(jìn)行人臉驗(yàn)證的正確率則可以高達(dá)99%。

對于這些技術(shù)背后的AI,如果我們用一個(gè)簡單的公式來表達(dá),那就是“A+B+C”。A是Algorithm即算法,B是Bigdata大數(shù)據(jù),C是算力Computing。我想這樣的公式或這樣的說法,最近一段時(shí)間大家都越來越熟悉了。這三者中,A即算法,最主要的就是指深度學(xué)習(xí)算法了。

所謂深度學(xué)習(xí)其實(shí)并不是新的技術(shù),在上世紀(jì)八十年代中后期的時(shí)候,理論、方法就基本成熟,但因?yàn)楫?dāng)時(shí)沒有大量數(shù)據(jù),沒有足夠強(qiáng)的計(jì)算能力,這就使在當(dāng)時(shí)我們不可能發(fā)揮它的作用。

2012年之后,因?yàn)榛ヂ?lián)網(wǎng)和物聯(lián)網(wǎng)的發(fā)展,使我們有更多機(jī)會收集大量數(shù)據(jù),再加上有GPU等平民化高性能計(jì)算設(shè)備的出現(xiàn),使我們有機(jī)會完成大規(guī)模的深度學(xué)習(xí)算法的訓(xùn)練。

深度學(xué)習(xí)在計(jì)算機(jī)視覺領(lǐng)域,解決了或者至少推動了一大類非線性的映射函數(shù)學(xué)習(xí)的問題。換句話說,給我們一張照片,這些照片就是一些數(shù)值,形成輸入x,我們通過深度模型學(xué)習(xí)一個(gè)F函數(shù),用F作用于x,即F(x)得到我們想要得到的Y,這個(gè)Y可能是一個(gè)標(biāo)簽(比如貓,狗),也可能是我們想要分割的結(jié)果。

這樣的方式,使我們做AI的方法論產(chǎn)生了極大變化。從過去,我們大量依賴人類專家知識來設(shè)計(jì)算法,到現(xiàn)在,變成有大監(jiān)督大數(shù)據(jù)驅(qū)動的方法為主。

以一個(gè)具體的應(yīng)用需求為例(從客戶那挖掘出來的案例)。

我們一個(gè)客戶做了小區(qū)巡邏機(jī)器人,物業(yè)希望這個(gè)機(jī)器人可以幫助解決小區(qū)管理中的一個(gè)痛點(diǎn)問題。小區(qū)里經(jīng)常有小狗亂拉屎,所以物業(yè)需要一個(gè)狗屎檢測系統(tǒng)。這樣的話,巡邏機(jī)器人可以及時(shí)發(fā)現(xiàn)這樣的垃圾,然后“報(bào)警”,由保潔及時(shí)來清除掉。

在沒有深度學(xué)習(xí)的時(shí)候,我們需要做的是:

第一步,收集一定量的包含狗屎的圖像數(shù)據(jù)。

第二步,人工設(shè)計(jì)或選擇一些特征。

第三步,選擇某種分類器在收集的數(shù)據(jù)集合上測試它,看它效果好不好。如果不夠好就回到第二步,不斷進(jìn)行反饋和調(diào)整。

這是一個(gè)人工設(shè)計(jì)特征的過程,這樣的方式非常耗時(shí),非常不高效。我們做人臉檢測花了20年,做行人車輛檢測大概花了10年,即使狗屎檢測相對容易,可能也需要至少一年。深度學(xué)習(xí)來了之后,整個(gè)過程變得很不一樣。如果我們采用眾包等方式,可能在一個(gè)月時(shí)間里就可以收集上萬張標(biāo)注了狗屎的照片,然后算法工程師可以根據(jù)經(jīng)驗(yàn)選擇一個(gè)深度學(xué)習(xí)算法,并設(shè)定一些超參數(shù),然后只需要讓機(jī)器在收集的數(shù)據(jù)集上進(jìn)行訓(xùn)練和學(xué)習(xí)就可以了,這個(gè)過程可以非??焖俚耐瓿桑蟾胖恍枰齻€(gè)月。從過去的數(shù)年到現(xiàn)在的數(shù)月,顯然大大提高了我們研發(fā)一項(xiàng)AI技術(shù)的效率。

這樣的方法論極大的提高了視覺技術(shù)的水平和落地效率。

我認(rèn)為很多場景下能看的AI才有真的智能。所以,視覺智能會有大量場景化需求,如果我們?nèi)ゼ?xì)看每一個(gè)領(lǐng)域,從公共安全、機(jī)器人、自動駕駛、無人機(jī)到醫(yī)療,每個(gè)領(lǐng)域我們都可以非常輕易的發(fā)現(xiàn)視覺的用武之地。如果AI有一雙眼睛(也就是有攝像頭),我們背后有合適的算法,機(jī)器就可以更多的替換或者輔助人更好、更高效的做我們想要它做的事情。

但從落地角度來講,也存在非常多問題。

問題一:個(gè)性化需求非常多,可批量復(fù)制的“標(biāo)品”比較少。

以“狗屎”識別機(jī)器人為例,可能明天還需要一個(gè)塑料瓶子檢測,后天是塑料袋識別,再后天是白菜識別,這么多不同的物體,如果我們都采用前面說的那種開發(fā)方式,每種東西需要至少三個(gè)月,那么我們就會面臨非常重的開發(fā)任務(wù),關(guān)鍵是現(xiàn)在并沒有這么多人才可以去做這么多事。

從落地角度來看,誰來做、誰去買單、誰去開發(fā)算法,采用什么樣的商業(yè)模式和合作模式都是問題。

問題二:從計(jì)算力角度講,深度學(xué)習(xí)的計(jì)算成本相對比較高。最近很多的AI專用芯片市場就是在解決這類問題。

AI技術(shù)的生產(chǎn)效率現(xiàn)在是比較低的,我們要加快生產(chǎn)效率,就需要人力,需要高水平的AI算法人才??墒茿I的人才奇缺。現(xiàn)在深度學(xué)習(xí)專業(yè)碩士畢業(yè)生可以拿到30-50萬年薪,博士則可以高達(dá)50-80萬年薪。在座的女孩們,如果沒有男朋友的話,到我們這個(gè)領(lǐng)域看一看。

相比可用的人才數(shù)量,這么多的視覺處理任務(wù),如果每個(gè)任務(wù)都要2個(gè)碩士博士做3-5個(gè)月才能完成,這將是災(zāi)難性的事情。

所以,未來我們需要新的方法論,從現(xiàn)在有監(jiān)督大數(shù)據(jù)驅(qū)動的方法論,變成知識和數(shù)據(jù)聯(lián)合驅(qū)動的方法論,為了完成這些事情,我們需要更強(qiáng)大的機(jī)器學(xué)習(xí)方法。使得我們在不同數(shù)據(jù)條件下也可以獲得穩(wěn)定、可靠的識別能力,這就體現(xiàn)在我們可能需要利用小數(shù)據(jù)、臟數(shù)據(jù)進(jìn)行機(jī)器學(xué)習(xí)。

此外,用來學(xué)習(xí)的數(shù)據(jù)還可能是半監(jiān)督的數(shù)據(jù)、弱監(jiān)督的數(shù)據(jù),比如給你一張照片告訴你其中有狗屎,但并沒有明確告訴你這個(gè)狗屎在什么位置,如果我們能有可以充分利用這些數(shù)據(jù)的更好的機(jī)器學(xué)習(xí)方法,我們才可能更加快速的開發(fā)AI技術(shù)。

這還不夠,我們還希望有更快捷的AI開發(fā)方法。比如我們希望開發(fā)一個(gè)安全帽檢測的引擎,這是實(shí)際需求。我們一旦把這個(gè)任務(wù)交給機(jī)器之后,希望AI生產(chǎn)平臺可以全自動完成全部的開發(fā)過程。機(jī)器完成這個(gè)任務(wù)的可能流程是:首先,它會理解這是一個(gè)檢測任務(wù),檢測目標(biāo)是安全帽,然后機(jī)器自動在百度上去搜索大量安全帽的圖像,然后在百度上搜索一些關(guān)于安全帽的知識描述,例如安全帽多數(shù)是圓的,顏色各異,經(jīng)常戴在人頭上等等。然后,算法就通過對這樣一些數(shù)據(jù)的自動處理和學(xué)習(xí),以及知識的利用完成一個(gè)“安全帽檢測”AI引擎的開發(fā)。

遺憾的是,從算法的角度來講,以我對該領(lǐng)域?qū)W術(shù)前沿的了解,要達(dá)到這樣的目標(biāo)我們可能還需要5-10年,還不一定100%完全做到那種程度。

在此之前,工業(yè)界最靠譜的做法恐怕還是采用“數(shù)據(jù)暴力”來完成多數(shù)類似AI任務(wù)的研發(fā)。但我們?nèi)绾谓鉀Q缺少大量AI算法工程師的問題呢?我認(rèn)為我們需要一個(gè)更強(qiáng)大、更便捷的AI算法生產(chǎn)基礎(chǔ)設(shè)施。這樣的基礎(chǔ)設(shè)施,就像當(dāng)年從專業(yè)相機(jī)到傻瓜相機(jī)的歷史演變一樣。

為了讓我們有更多的人才可以開發(fā)AI,以滿足大量的視覺智能開發(fā)任務(wù),我們的AI生產(chǎn)工具要從Caffe,Mxnet和Tensorflow等只能昂貴的高端人才可以使用的開發(fā)工具發(fā)展到“傻瓜式”的AI開發(fā)平臺。這樣的平臺應(yīng)該使更多的中低端人才,即使不懂AI、不懂深度學(xué)習(xí),也可以經(jīng)過簡單的培訓(xùn),就可以利用自己的私有數(shù)據(jù),在這樣的軟硬建基礎(chǔ)設(shè)施平臺上,方便快捷的開發(fā)出自己所需要的AI技術(shù)引擎,并便捷的嵌入自己的業(yè)務(wù)系統(tǒng)中。

我作為主要?jiǎng)?chuàng)始人成立的中科視拓,自去年8月成立以來,不僅做了大量人臉識別、無人機(jī)視覺等計(jì)算機(jī)視覺技術(shù)服務(wù)項(xiàng)目,開發(fā)了多款人臉識別產(chǎn)品和解決方案。與此同時(shí),我們已經(jīng)研發(fā)了一個(gè)稱為SeeTaaS的深度學(xué)習(xí)算法開發(fā)平臺,這個(gè)平臺不但在我們公司內(nèi)部逐步得到了應(yīng)用,也已經(jīng)開始提供給我們的B端客戶,使他們也具備了用自己的私有數(shù)據(jù)訓(xùn)練自己所需的深度學(xué)習(xí)算法和引擎的能力。相信這個(gè)SeeTaaS平臺會越來越好用,最終實(shí)現(xiàn)我們“讓天下沒有難開發(fā)的AI”這一夢想!

謝謝大家!

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報(bào)投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    28876

    瀏覽量

    266218
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120591
  • 山世光
    +關(guān)注

    關(guān)注

    0

    文章

    1

    瀏覽量

    970

原文標(biāo)題:山世光:AI產(chǎn)業(yè)需要賦能平臺

文章出處:【微信號:deeplearningclass,微信公眾號:深度學(xué)習(xí)大講堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    深度學(xué)習(xí)算法在嵌入式平臺上的部署

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)算法在各個(gè)領(lǐng)域的應(yīng)用日益廣泛。然而,將深度學(xué)習(xí)算法部署到資源
    的頭像 發(fā)表于 07-15 10:03 ?727次閱讀

    深度學(xué)習(xí)算法在集成電路測試中的應(yīng)用

    隨著半導(dǎo)體技術(shù)的快速發(fā)展,集成電路(IC)的復(fù)雜性和集成度不斷提高,對測試技術(shù)的要求也日益增加。深度學(xué)習(xí)算法作為一種強(qiáng)大的數(shù)據(jù)處理和模式識別工具,在集成電路測試領(lǐng)域展現(xiàn)出了巨大的應(yīng)用潛力。本文將從
    的頭像 發(fā)表于 07-15 09:48 ?413次閱讀

    利用Matlab函數(shù)實(shí)現(xiàn)深度學(xué)習(xí)算法

    在Matlab中實(shí)現(xiàn)深度學(xué)習(xí)算法是一個(gè)復(fù)雜但強(qiáng)大的過程,可以應(yīng)用于各種領(lǐng)域,如圖像識別、自然語言處理、時(shí)間序列預(yù)測等。這里,我將概述一個(gè)基本的流程,包括環(huán)境設(shè)置、數(shù)據(jù)準(zhǔn)備、模型設(shè)計(jì)、訓(xùn)練過程、
    的頭像 發(fā)表于 07-14 14:21 ?1163次閱讀

    深度學(xué)習(xí)中的無監(jiān)督學(xué)習(xí)方法綜述

    應(yīng)用中往往難以實(shí)現(xiàn)。因此,無監(jiān)督學(xué)習(xí)深度學(xué)習(xí)中扮演著越來越重要的角色。本文旨在綜述深度學(xué)習(xí)中的無監(jiān)督學(xué)
    的頭像 發(fā)表于 07-09 10:50 ?216次閱讀

    深度學(xué)習(xí)中的模型權(quán)重

    深度學(xué)習(xí)這一充滿無限可能性的領(lǐng)域中,模型權(quán)重(Weights)作為其核心組成部分,扮演著至關(guān)重要的角色。它們不僅是模型學(xué)習(xí)的基石,更是模型智能的源泉。本文將從模型權(quán)重的定義、作用、優(yōu)化、管理
    的頭像 發(fā)表于 07-04 11:49 ?418次閱讀

    深度學(xué)習(xí)的基本原理與核心算法

    處理、語音識別等領(lǐng)域取得了革命性的突破。本文將詳細(xì)闡述深度學(xué)習(xí)的原理、核心算法以及實(shí)現(xiàn)方式,并通過一個(gè)具體的代碼實(shí)例進(jìn)行說明。
    的頭像 發(fā)表于 07-04 11:44 ?1076次閱讀

    深度學(xué)習(xí)模型訓(xùn)練過程詳解

    詳細(xì)介紹深度學(xué)習(xí)模型訓(xùn)練的全過程,包括數(shù)據(jù)預(yù)處理、模型構(gòu)建、損失函數(shù)定義、優(yōu)化算法選擇、訓(xùn)練過程以及模型的評估與調(diào)優(yōu)。
    的頭像 發(fā)表于 07-01 16:13 ?488次閱讀

    深度解析深度學(xué)習(xí)下的語義SLAM

    隨著深度學(xué)習(xí)技術(shù)的興起,計(jì)算機(jī)視覺的許多傳統(tǒng)領(lǐng)域都取得了突破性進(jìn)展,例如目標(biāo)的檢測、識別和分類等領(lǐng)域。近年來,研究人員開始在視覺SLAM算法中引入深度
    發(fā)表于 04-23 17:18 ?992次閱讀
    <b class='flag-5'>深度</b>解析<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>下的語義SLAM

    為什么深度學(xué)習(xí)的效果更好?

    ,這些原則和進(jìn)步協(xié)同作用使這些模型異常強(qiáng)大。本文探討了深度學(xué)習(xí)成功背后的核心原因,包括其學(xué)習(xí)層次表示的能力、大型數(shù)據(jù)集的影響、計(jì)算能力的進(jìn)步、算法創(chuàng)新、遷移
    的頭像 發(fā)表于 03-09 08:26 ?502次閱讀
    為什么<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的效果更好?

    什么是深度學(xué)習(xí)?機(jī)器學(xué)習(xí)深度學(xué)習(xí)的主要差異

    2016年AlphaGo 擊敗韓國圍棋冠軍李石,在媒體報(bào)道中,曾多次提及“深度學(xué)習(xí)”這個(gè)概念。
    的頭像 發(fā)表于 01-15 10:31 ?830次閱讀
    什么是<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>?機(jī)器<b class='flag-5'>學(xué)習(xí)</b>和<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的主要差異

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    處理技術(shù)也可以通過深度學(xué)習(xí)來獲得更優(yōu)異的效果,比如去噪、超分辨率和跟蹤算法等。為了跟上時(shí)代的步伐,必須對深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)技術(shù)有所
    的頭像 發(fā)表于 01-11 10:51 ?1600次閱讀
    詳解<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    目前主流的深度學(xué)習(xí)算法模型和應(yīng)用案例

    深度學(xué)習(xí)在科學(xué)計(jì)算中獲得了廣泛的普及,其算法被廣泛用于解決復(fù)雜問題的行業(yè)。所有深度學(xué)習(xí)算法都使用
    的頭像 發(fā)表于 01-03 10:28 ?1215次閱讀
    目前主流的<b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b>模型和應(yīng)用案例

    深度學(xué)習(xí)在人工智能中的 8 種常見應(yīng)用

    深度學(xué)習(xí)簡介深度學(xué)習(xí)是人工智能(AI)的一個(gè)分支,它教神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)和推理。近年來,它解決復(fù)雜問題并在各個(gè)領(lǐng)域提供尖端性能的能力引起了極大的興
    的頭像 發(fā)表于 12-01 08:27 ?2959次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>在人工智能中的 8 種常見應(yīng)用

    深度學(xué)習(xí)算法和傳統(tǒng)機(jī)器視覺助力工業(yè)外觀檢測

    在很多人眼里,深度學(xué)習(xí)是一個(gè)非常神奇的技術(shù),是人工智能的未來,是機(jī)器學(xué)習(xí)的圣杯。今天深創(chuàng)新帶您一起揭開他神秘的面紗,了解什么才是深度
    的頭像 發(fā)表于 11-09 10:58 ?563次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b><b class='flag-5'>算法</b>和傳統(tǒng)機(jī)器視覺助力工業(yè)外觀檢測

    深度學(xué)習(xí)的由來 深度學(xué)習(xí)的經(jīng)典算法有哪些

    深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)的一個(gè)分支,其學(xué)習(xí)方法可以分為監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)。兩種方法都具有其獨(dú)特的
    發(fā)表于 10-09 10:23 ?483次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的由來 <b class='flag-5'>深度</b><b class='flag-5'>學(xué)習(xí)</b>的經(jīng)典<b class='flag-5'>算法</b>有哪些