有三種技術(shù)都致力于帶來更快,更簡單,更便宜,更智能的人工智能。高性能計算今天已經(jīng)可用,量子計算機(jī)和神經(jīng)擬態(tài)計算網(wǎng)絡(luò)也即將進(jìn)入商業(yè)化,后兩種技術(shù)將革新AI和深度學(xué)習(xí)。
人工智能和深度學(xué)習(xí)存在三個問題
時間:訓(xùn)練CNN、RNN這類深度網(wǎng)絡(luò)需要數(shù)周時間,這還不包括定義問題和深度網(wǎng)絡(luò)編程達(dá)到可用性能之前所需要的時間。
成本:用幾百個GPU連續(xù)進(jìn)行計算是非常昂貴的。從亞馬遜的云計算服務(wù)租用800個GPU一個星期就會花費大約12萬美元。這還不包括人力成本。一個人工智能項目可能需要幾個月或一年以上的高級人才成本。
數(shù)據(jù):在很多情況下,沒有足夠數(shù)量標(biāo)記數(shù)據(jù)項目很難成功。有很多好的點子存在,但訓(xùn)練數(shù)據(jù)的價格太高。
在商業(yè)上取得了很大的進(jìn)步的領(lǐng)域,主要涉及圖像處理、文字或語音識別,這些創(chuàng)業(yè)公司很多都利用了Google,IBM,微軟等公司優(yōu)秀的圖像和語音模型API。
人工智能的三條賽道
如果你關(guān)注這個領(lǐng)域,你會發(fā)現(xiàn)我們已經(jīng)開始使用CNN、RNN。而超越這些應(yīng)用的發(fā)展才剛剛出現(xiàn),下一波進(jìn)展將來自生成敵對網(wǎng)絡(luò)(GANs)和強(qiáng)化學(xué)習(xí)(Reinforcement Learning),以及Watson這樣的問答機(jī)器(QAMs)。
這是我們?nèi)绾瓮苿尤斯ぶ悄茏畛R姷目捶?。使用越來越?fù)雜的深層神經(jīng)網(wǎng)絡(luò),與現(xiàn)在常見的CNN和RNN不同的體系結(jié)構(gòu),運行速度更快。
實際上未來可能完全不同。我們看到的是基于完全不同技術(shù)的人工智能未來的三方競賽。分別是:
1、高性能計算(HPC)
2、神經(jīng)擬態(tài)計算(NC)
3、量子計算(QC)
其中,高性能計算是當(dāng)今主要的關(guān)注焦點。芯片制造商和谷歌等廠商之間正在展開競爭,都在加速開發(fā)深度學(xué)習(xí)的芯片。神經(jīng)擬態(tài)計算(脈沖神經(jīng)網(wǎng)絡(luò))和量子計算似乎還需要幾年時間的發(fā)展。而事實上,已經(jīng)有神經(jīng)擬態(tài)芯片和量子計算機(jī)投入到機(jī)器學(xué)習(xí)的商用中。
無論冷熱,這兩種新技術(shù)都將直接顛覆人工智能的路徑,這是一件好事。
高性能計算
目前最受關(guān)注的是高性能計算。高性能計算讓現(xiàn)有的深度神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)更快,更容易訪問。
基本上這意味著兩件事情:更好的通用環(huán)境,如TensorFlow,在更大的數(shù)據(jù)中心中更好地使用GPU和FPGA,以及更多專用芯片的出現(xiàn)。
AI的新商業(yè)模式是“開源”。在2016年上半年,基本上所有AI的主要玩家都將他們的AI平臺開源。他們在數(shù)據(jù)中心,云服務(wù)和人工智能知識產(chǎn)權(quán)方面投入巨資相互競爭。開源背后的策略很簡單,平臺用戶最多者獲勝。
盡管英特爾,英偉達(dá)和其他傳統(tǒng)芯片制造商紛紛滿足GPU的新需求,谷歌和微軟這樣的巨頭正在通過開發(fā)專有芯片,使自己的深度學(xué)習(xí)平臺更快,更具吸引力。
TensorFlow作為谷歌功能強(qiáng)大的通用解決方案,最新發(fā)布的專有芯片TPU,TensorFlow與相結(jié)合,以取得更好的成績。
微軟一直在兜售使用非專有的FPGA,并發(fā)布了認(rèn)知工具包(CNTK)的2.0版本。CNTK提供了一個Java API,可直接與Spark進(jìn)行集成。它支持Keras的代碼,使用戶可以輕松地從谷歌遷移。據(jù)報道CNTK比TensorFlow更快,更準(zhǔn)確,并提供Python API。
整合Spark將繼續(xù)保持重要的驅(qū)動因素。雅虎已經(jīng)把TensorFlow帶到了Spark。Spark的主要商業(yè)供應(yīng)商Databricks已經(jīng)推出了開源軟件包,可以將深度學(xué)習(xí)與Spark結(jié)合起來。
這里的關(guān)鍵驅(qū)動因素至少解決了三個障礙中的兩個。這些改進(jìn)使編程更快,更容易,以獲得更可靠的良好結(jié)果,尤其是更快的芯片使機(jī)器的計算時間更短。
神經(jīng)擬態(tài)計算(NC)或脈沖神經(jīng)網(wǎng)絡(luò)(SNN)
神經(jīng)擬態(tài)計算或脈沖神經(jīng)網(wǎng)絡(luò)是通向強(qiáng)人工智能的路徑,基于大腦運作的原理,與目前深度神經(jīng)網(wǎng)絡(luò)的方式大不相同。
研究人員觀察到,大腦中并不是所有的神經(jīng)元每次都會激活。神經(jīng)元在鏈路上發(fā)送選擇性信號,數(shù)據(jù)實際上是以某種脈沖方式在信號中編碼的。實際上,這些信號由一系列脈沖組成,所以研究者根據(jù)信號的幅度,頻率,延遲時間進(jìn)行編碼。
在現(xiàn)有的深度神經(jīng)網(wǎng)絡(luò)中,每個神經(jīng)元都根據(jù)相對簡單的激活函數(shù),每一次都會全部激活。
神經(jīng)擬態(tài)計算已經(jīng)比目前的深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)有幾個顯著的改進(jìn)。
1、由于并非所有的“神經(jīng)元”每次都會激活,所以單個SNN神經(jīng)元可以替代傳統(tǒng)深度神經(jīng)網(wǎng)絡(luò)中的數(shù)百個神經(jīng)元,從而在功率和體積方面產(chǎn)生更高的效率。
2、早期的例子表明,神經(jīng)擬態(tài)計算可以使用無監(jiān)督的技術(shù)(沒有標(biāo)記的例子)從環(huán)境中學(xué)習(xí),只需很少的樣本就可以快速學(xué)習(xí)。
3、神經(jīng)擬態(tài)計算可以通過從一種環(huán)境中學(xué)習(xí)并應(yīng)用到另一個環(huán)境??梢杂洃浐透爬?,這是真正突破的能力。
4、神經(jīng)擬態(tài)計算更節(jié)能,開辟了小型化的道路。
這種基本架構(gòu)的改變,可以解決當(dāng)今深度學(xué)習(xí)面臨的三個基本問題。
最重要的是,現(xiàn)在你就可以購買和使用神經(jīng)擬態(tài)脈沖神經(jīng)網(wǎng)絡(luò)系統(tǒng)。這并不是一個遙遠(yuǎn)的技術(shù)。
BrainChip Holdings已經(jīng)在拉斯維加斯最大的賭場之一推出了商業(yè)安防監(jiān)控系統(tǒng),并宣布了其他將要交付的應(yīng)用。在拉斯維加斯,其功能是通過監(jiān)控攝像機(jī)的視頻自動檢測發(fā)牌人錯誤。完全通過觀察來學(xué)習(xí)賭博的規(guī)則。BrainChip是澳大利亞證券交易所上的一家上市公司,推出了一系列賭場監(jiān)測產(chǎn)品。
量子計算
關(guān)于量子計算你可能不知道的事實:
量子計算已經(jīng)可用,2010年以來,洛克希德·馬丁公司一直在投入商業(yè)運營另外幾家公司正在推出基于D-Wave量子計算機(jī)的商業(yè)應(yīng)用程序,這是第一個面向商用市場推出的量子計算機(jī),D-Wave公司希望每年都在將量子計算機(jī)的規(guī)模擴(kuò)大一倍
今年5月,IBM宣布推出量子計算機(jī)商用產(chǎn)品IBM Q的。這是一項基于云計算的訂閱服務(wù),無疑極大地簡化了對這些昂貴且復(fù)雜的機(jī)器的訪問。IBM表示,到目前為止,用戶已經(jīng)運行了30萬次實驗。
谷歌和微軟在未來兩三年內(nèi)將有望發(fā)布自己的商用量子計算機(jī),就像許多獨立機(jī)構(gòu)和學(xué)術(shù)機(jī)構(gòu)一樣。
D-Wave和一些獨立的研究人員已經(jīng)推出了開源的編程語言,使得量子設(shè)備的編程更加容易。
量子計算機(jī)擅長各種類型的優(yōu)化問題。
根據(jù)Google2015年的研究報告,D-Wave量子計算機(jī)與傳統(tǒng)計算機(jī)相比,性能是傳統(tǒng)計算機(jī)的108倍,速度提高了1億倍。谷歌工程總監(jiān)Hartmut Nevan表示:“D-Wave 1秒能做的,傳統(tǒng)計算機(jī)需要1萬年。
量子計算代表著強(qiáng)人工智能的第三條道路,并克服了速度和成本問題。
未來將如何發(fā)展?
神經(jīng)擬態(tài)計算和量子計算都很有潛力。從時間軸上看。高性能計算未來幾年將繼續(xù)發(fā)展,然而,許多實驗室和數(shù)據(jù)中心都會使用更先進(jìn)的量子計算機(jī)和神經(jīng)擬態(tài)計算。
深度學(xué)習(xí)平臺正在發(fā)展,如谷歌TensorFlow和微軟CNTK,其他平臺也在努力獲得用戶。隨著量子計算和神經(jīng)擬態(tài)計算的發(fā)展,平臺將逐步采用。
量子計算機(jī)將徹底消除時間障礙,成本障礙也將降低,將來會出全新類型的機(jī)器學(xué)習(xí)。
我的個人觀點是量子計算和神經(jīng)擬態(tài)計算和2007年的情況很像,那一年谷歌的分布式數(shù)據(jù)存儲系統(tǒng)Big Table變成了開源的Hadoop。一開始我們不知道如何使用,但三年后Hadoop幾乎主導(dǎo)了整個數(shù)據(jù)科學(xué)。
人工智能——2017年最火熱的標(biāo)簽。對于眾多AI試水者,你知道如何平衡技術(shù)與需求嗎?你知道如何利用政策事半功倍嗎?你知道如何尋找公司的投資伯樂嗎?12月14日,「2017億歐創(chuàng)新者年會·AI產(chǎn)業(yè)應(yīng)用峰會」,我們將邀請眾多投資人、創(chuàng)業(yè)者、AI領(lǐng)域精英共同探討,不僅是AI+產(chǎn)業(yè)+應(yīng)用,這里是需求方和技術(shù)提供方的溝通平臺,是政策專家與企業(yè)方的交流平臺,是投資人與企業(yè)方交流的互獵平臺,是應(yīng)屆畢業(yè)生和企業(yè)方的對接平臺。多維度,更深度,來這里實現(xiàn)屬于你的AI!
評論
查看更多