AI發(fā)展至今已有60年光景,已處于高速成長階段。60年的光陰里AI都取得了哪些進(jìn)展?有哪些制約因素?我國AI發(fā)展到了什么水平?
6月21日晚間,由北京智源人工智能研究院主辦的2020北京智源大會在線上舉行,圖靈獎獲得者、中國科學(xué)院院士、中國工程院院士、國內(nèi)外AI頂尖學(xué)者齊聚一堂,共同描畫了下一代AI的模樣。
AI的下一次突破何時到來?
世界范圍內(nèi),AI已經(jīng)發(fā)展了60年左右的時間。然而從上世紀(jì)60年代開始30多年的時間里并沒有研究出可以比肩人類的技術(shù)。直到1997年,IBM研發(fā)的深藍(lán)超級計算器擊敗國際象棋世界冠軍加里·基莫維奇·卡斯帕羅夫,至此AI終于實現(xiàn)了里程碑式的突破。2005年,在斯坦福大學(xué)時任副教授的Sebastian Thrun帶領(lǐng)學(xué)生打造的一款名為“斯坦利”的機(jī)器汽車,成功穿越300英里沙漠,成為歷史上第一個完成DARPA無人駕駛汽車挑戰(zhàn)賽的自動駕駛汽車,業(yè)內(nèi)公認(rèn)“斯坦利”是AI應(yīng)用的又一次突破,Sebastian Thrun也因此成為了谷歌自動駕駛汽車系統(tǒng)的專家,幫谷歌打造出自動駕駛的原型車,谷歌也憑此成為了自動駕駛領(lǐng)域的領(lǐng)軍者。
到了2012年,也是AI迄今距離最近的一次突破——深度學(xué)習(xí)。當(dāng)時機(jī)器學(xué)習(xí)已經(jīng)非常流行,但是還不足以達(dá)成AI的最高目標(biāo),而深度學(xué)習(xí)的理論已經(jīng)存在了幾十年,直到2012年終于取得突破,它可以構(gòu)建AI已知的所有功能,包括決策理論、規(guī)劃和推理,讓AI距離真正解決問題又近了一步。
深度學(xué)習(xí)可以解決什么問題?比如有一輛自行車,深度學(xué)習(xí)可以將自行車進(jìn)行結(jié)構(gòu)性的拆解,對車座、車把、車輪等組成部分進(jìn)行識別?!暗钱?dāng)遇到一件與自行車十分類似的物品時,深度學(xué)習(xí)會把它自動歸為同類。”圖靈獎獲得者John Hopcroft指出,深度學(xué)習(xí)的問題在于它不能告訴你自行車每個部分的功能是什么。
下一代人工智能要取得突破,可以在深度學(xué)習(xí)的基礎(chǔ)上附加相應(yīng)的邏輯,實現(xiàn)讓AI知道腳踏板可以驅(qū)動車輪,區(qū)分有用郵件和垃圾郵件。
康奈爾大學(xué)教授Bart Salmen認(rèn)為,深度學(xué)習(xí)還有很大的提升空間,它是一種基于數(shù)據(jù)訓(xùn)練的學(xué)習(xí)方法,但是人類是有感知能力的,要達(dá)到人類水平,就要學(xué)會感知。張鈸認(rèn)為,感知=感覺+認(rèn)知,目前深度學(xué)習(xí)方法只觸及到了感覺層面,還未達(dá)到認(rèn)知高度,需要真正的知識灌輸,下一代AI要明確地把知識驅(qū)動和數(shù)據(jù)驅(qū)動結(jié)合起來才能真正取得突破
那么AI的下一次突破何時到來,又一個十年、二十年?
John Hopcroft認(rèn)為,歷史上農(nóng)業(yè)發(fā)展花費(fèi)了上千年,制造業(yè)發(fā)展花了幾百年,AI首次取得成功只用了幾十年,所以下一次突破會很快。
專家們紛紛表示,下一代AI一定要具有可解釋性,使用者需要知道AI究竟是怎樣運(yùn)作的,這也是增強(qiáng)人類對AI信任度的關(guān)鍵。
John Hopcroft指出,AI的下一次突破不一定是計算能力的突破,也有可能是生物學(xué)層面的突破。
AI需要解決什么問題?
隱私和安全問題是人工智能技術(shù)應(yīng)用大規(guī)模鋪開所面臨的一大挑戰(zhàn),這是很多用戶在接受使用AI應(yīng)用前最擔(dān)心的問題之一。
中國科學(xué)院院士張鈸認(rèn)為,要解決這個問題,首先要從兩個層面來探討。一是如何正確合理運(yùn)用隱私,這需要AI開發(fā)企業(yè)的高度自律。隱私保護(hù)是為了防止傷害集體和個人的利益,涉及到保護(hù)和使用的關(guān)系,可以很嚴(yán)也可以很松,不一定一步到位制定出完整的規(guī)則,需要逐步的改進(jìn)。
二要避免人工智能濫用的問題,這是目前深度學(xué)習(xí)無法解決的問題,需要談到人工智能治理這個層面。張鈸指出,一方面要定義規(guī)則,制定嚴(yán)格的法律法規(guī),二要發(fā)展安全可靠、可信、可擴(kuò)展的人工智能技術(shù),這樣才能真正保護(hù)人工智能的安全?!叭斯ぶ悄苤卫矸浅V匾?,只有想清楚如何治理,才能知道技術(shù)往哪些方向發(fā)展”張鈸談到。
此外,還要建立讓用戶信任的AI應(yīng)用機(jī)制。香港科技大學(xué)教授楊強(qiáng)認(rèn)為,開發(fā)者和應(yīng)用方不可能隔絕開來,需要共同協(xié)作、互相交流。開始可以先采用加密模型參數(shù),對于使用者來說,可能會不清楚傳遞是參數(shù)還是數(shù)據(jù),那么就可以引入一個中心機(jī)構(gòu),讓每一個參與者在這個中間機(jī)構(gòu)中傳遞信息。另外也可以引入區(qū)塊鏈的管理模式,借助其透明化且不可篡改的機(jī)制對隱私加以保護(hù)。
中國工程院院士高文認(rèn)為,開源是解決AI隱私問題最好的辦法,沒有一蹴而就的解決方法?!熬拖裎湫g(shù)一樣,要想做到厲害就要不停攻防?!备呶膹?qiáng)調(diào),不要太過擔(dān)心數(shù)據(jù)共享有可能帶來的惡意攻擊,因為技術(shù)發(fā)展過程中一定會考慮到針對性的解決辦法。
中國AI發(fā)展痛點在哪里?
新基建浪潮下,國內(nèi)各大企業(yè)通過興建大量基礎(chǔ)設(shè)施,強(qiáng)調(diào)大算力來搶占技術(shù)高地,那么AI到底需要多大的算力?
楊強(qiáng)認(rèn)為,大算力是AI突破的方式。學(xué)術(shù)界很多專家開始嘗試采用遷移學(xué)習(xí)的方法解決通用問題,如果算力足夠大,那么遷移學(xué)習(xí)就可以適配到各個領(lǐng)域,符合縱深發(fā)展的條件。
高文指出,下一代AI要解決高效能的問題。AI的下一階段要求是超過人的精度,但是人本身并不需要太大的算力。所以下一步應(yīng)提高計算機(jī)的學(xué)習(xí)能力,減少低效學(xué)習(xí)所消耗的大量電力,不要過分追求大算力。
我國在AI科研平均水平已經(jīng)接近世界水平,但是最高水平和世界領(lǐng)先仍有較大差距?!皼]有從0到1的發(fā)現(xiàn)?!睆堚撝赋?,我國AI研究尚未突破創(chuàng)新的瓶頸,基礎(chǔ)研究落腳點在發(fā)表論文的數(shù)量上,與過去相比有巨大的進(jìn)步,也是制約因素。
楊強(qiáng)認(rèn)為,有責(zé)任心有志向的學(xué)者應(yīng)該在創(chuàng)新上努力,重點是選題質(zhì)量而不是文章數(shù)量。研究方向一要足夠新,二要足夠難,三要讓人很容易理解。楊強(qiáng)指出,這樣的研究還需要運(yùn)用方法把問題分解成可以解決的階段,每個階段設(shè)立一個小目標(biāo)。另外,計算機(jī)的發(fā)展離不開數(shù)據(jù),觸手可及的數(shù)據(jù)更容易實現(xiàn)落地。“不要跟風(fēng)熱門領(lǐng)域,有很多新領(lǐng)域更值得探索?!睏顝?qiáng)說道。
責(zé)任編輯:tzh
-
AI
+關(guān)注
關(guān)注
87文章
29854瀏覽量
268151 -
人工智能
+關(guān)注
關(guān)注
1791文章
46691瀏覽量
237179
發(fā)布評論請先 登錄
相關(guān)推薦
評論