近日舉行的英特爾研究院開放日,不發(fā)新品,只談前沿科技。乍一看覺得還很遙遠,但其實有些已在來路上甚至已經(jīng)進入應用中,可能是未來五年最重要的技術(shù)趨勢了。
在總結(jié)之前,先說一下為什么判斷是未來五年?這幾大技術(shù)都是英特爾研究院立項時的規(guī)劃,三至五年是交付的時間窗,約在五年左右達成。以英特爾在前沿技術(shù)上的敏銳和布局,這些技術(shù)一旦在不同的時間節(jié)點產(chǎn)業(yè)化之后,對現(xiàn)有的技術(shù)格局將可能是顛覆性的。
趨勢一:光互連I/O已在來路上
這是第一次聽到英特爾提出集成光電這個概念。雖然在大的原理方面與市場上正在提的硅光方案類似,但英特爾的不同之處在于,利用其獨有的技術(shù)和工藝優(yōu)勢,將原本分離的、尺寸較大的模塊全部進行了集成。
隨著數(shù)據(jù)量的爆發(fā),面臨性能瓶頸的不只是硬件設備的計算能力,同時還有設備之間或設備內(nèi)部的數(shù)據(jù)傳輸能力,特別是對于數(shù)據(jù)中心這類進行大規(guī)模數(shù)據(jù)交換的應用。
集成光電根本上就是為了解決I/O的傳輸瓶頸。由于光互連(optical)在長距離、遠程和地下傳輸中占主導,而電氣互連(electrical)在短距離、主板互連(boardtoboard)和封裝互連(packagetopackage)中有優(yōu)勢。英特爾的研究愿景就是改變這一現(xiàn)實,將光互連引入服務器中,將光學技術(shù)與硅技術(shù)集成起來,開發(fā)出了硅光子技術(shù),讓光互連具備硅的高產(chǎn)量、低成本等屬性。
目前在硅光子領(lǐng)域,英特爾已經(jīng)做出了原型演示,混合硅激光器(hybridsiliconlaser)/集成激光器,是英特爾硅光子產(chǎn)品的基礎(chǔ),已經(jīng)交付了超過400萬個英特爾100G收發(fā)器產(chǎn)品,這款產(chǎn)品結(jié)合了硅電子和光學技術(shù),能夠在獨立的硅芯片上實現(xiàn)近乎光速的數(shù)據(jù)傳輸。不過,雖然這項技術(shù)取得了長足的進步,但鑒于目前硅光子模塊和運行功率的成本和物理體積,光互連I/O還不適合短距離傳輸,這是要跨越的下一個巨大障礙。
預計何時會遷移到光互連I/O呢?英特爾首席工程師、英特爾研究院PHY研究實驗室主任的答案是“很快了”。展望通信和數(shù)據(jù)中心性能的未來,光互連和電氣互連方法之間有一個明顯的拐點,主要原因有兩點:首先,我們正在快速接近電氣性能的物理極限,如果不進行根本性創(chuàng)新,高能效電路設計將存在諸多限制;第二是I/O功耗墻,計算的帶寬需求大約每三年翻一番,但電氣性能擴展卻跟不上帶寬需求的增長速度,導致了I/O功耗墻,即I/O功耗會逐漸高于所有現(xiàn)有的插接電源,導致無法計算。
光互連涉及六大技術(shù)要素:光產(chǎn)生、光放大、光探測、光調(diào)制、CMOS接口電路和封裝集成。英特爾近來的重大突破是將光學的四個組件,包括集成激光器、半導體光學放大器、全硅光電探測器和微型環(huán)調(diào)制器與CMOS硅緊密集成的單個技術(shù)平臺上,從激光的發(fā)射到調(diào)制,到接受端檢測、放大,全部通過小型模塊實現(xiàn)。
集成光電是英特爾在硅光子技術(shù)領(lǐng)域的技術(shù)愿景,目前研究的重點是低成本、低功耗的光互連I/O。借助集成光電技術(shù),能夠?qū)/O數(shù)量從幾百萬個擴展到幾十億個,實現(xiàn)1000倍的提升。未來的光鏈路將讓所有的I/O連接直接從服務器封裝中發(fā)出,全面覆蓋整個數(shù)據(jù)中心。這項技術(shù)一旦規(guī)模應用,將徹底改變數(shù)據(jù)中心網(wǎng)絡架構(gòu),提高數(shù)據(jù)傳輸效率。
趨勢二:神經(jīng)擬態(tài)計算降低成本有望普遍應用
隨著深度學習的出現(xiàn),人工智能取得了驚人的進展,但與此同時,系統(tǒng)功耗不斷增加。訓練一個現(xiàn)代AI神經(jīng)網(wǎng)絡甚至需要使用數(shù)千臺集群服務器,功耗高達數(shù)百萬瓦,這正逐漸成為AI不斷發(fā)展、以及廣泛普及的瓶頸。那么,如何才能提升AI任務的能效、甚至提高1000倍呢?英特爾幾年前開始了神經(jīng)擬態(tài)計算的探索。
相比傳統(tǒng)計算機架構(gòu),神經(jīng)擬態(tài)架構(gòu)模糊了內(nèi)存和處理之間的界限。和大腦一樣,它利用的是數(shù)據(jù)連接、數(shù)據(jù)編碼和電路活動中所有形式的稀疏(sparsity)。也就是說,處理就發(fā)生在信息到達時,二者同步進行。計算是數(shù)百萬個簡單處理單元之間動態(tài)交互的發(fā)展結(jié)果,就像大腦中的神經(jīng)元一樣。這種新型計算機架構(gòu)旨在將能效、實時數(shù)據(jù)處理速度、學習數(shù)據(jù)的效率等提升多個數(shù)量級。
英特爾在2017年發(fā)布了首款神經(jīng)擬態(tài)研究芯片Loihi,采用英特爾主流的14納米制程。相比其他神經(jīng)擬態(tài)芯片,Loihi在靈活性、集成性和速度方面表現(xiàn)較好,并還具有片上學習功能。它沒有深度學習硬件中普遍存在的浮點數(shù)和乘法累加器單元,也沒有片外內(nèi)存接口,內(nèi)存來源于芯片神經(jīng)元之間的連接。和大腦一樣,所有計算都在芯片上進行,通過二進制脈沖信息和低精度信號。
英特爾在神經(jīng)擬態(tài)計算的研究上走到了第五個年頭,如今項目研究也步入下一階段,探索實際應用。此前,Gartner在一份調(diào)查報告中預測,到2025年神經(jīng)擬態(tài)計算有望取代GPU,成為下一代AI的主流計算形態(tài)。
對此,英特爾中國研究院院長宋繼強認為,神經(jīng)擬態(tài)計算和深度學習的關(guān)系應該是兼收并蓄,而不是取代,“對于深度學習已經(jīng)非常擅長的,模擬人類視覺或者自然語言交互的任務,讓深度學習的網(wǎng)絡去模擬;對于其他不太適合用深度學習做的,如英特爾Loihi芯片做的嗅覺方面的研究,還有機器人操控、多模態(tài)甚至于跨模態(tài)之間的知識存儲,可以用神經(jīng)擬態(tài)計算去實現(xiàn)。”
為了進一步擴大該技術(shù)的適用范圍,英特爾成立了英特爾神經(jīng)擬態(tài)研究社區(qū)(INRC),通過與世界各地不同類型的學術(shù)界、政府實驗室和企業(yè)研究人員進行交流合作,成為改進Loihi的架構(gòu)、系統(tǒng)和軟件的重要基礎(chǔ)。INRC成員將使用英特爾的Loihi研究芯片作為研發(fā)活動的架構(gòu)焦點,隨著基礎(chǔ)算法和SDK組件日趨成熟,英特爾希望INRC取得的成果未來能夠推動神經(jīng)擬態(tài)架構(gòu)、軟件和系統(tǒng)的改進,最終實現(xiàn)商業(yè)化。2021年第一季度,英特爾將發(fā)布下一代“Lava”軟件開發(fā)框架的開源版本,以此觸及更龐大的軟件開發(fā)人員社區(qū)。
受限于成本問題,英特爾高級首席工程師、英特爾研究院神經(jīng)擬態(tài)計算實驗室主任MikeDavies表示,短期內(nèi)神經(jīng)擬態(tài)計算要么用于邊緣設備、傳感器等小規(guī)模設備,要么用于對成本不敏感的應用,如衛(wèi)星、專用機器人。隨著時間的推移,預計內(nèi)存技術(shù)的創(chuàng)新能夠進一步降低成本,讓神經(jīng)擬態(tài)解決方案擴大適用范圍,運用于各種需要實時處理數(shù)據(jù)但受限于體積、重量、功耗等因素的智能設備。
趨勢三:量子計算商業(yè)化道阻且長
量子計算有兩個普世價值,一是在某些領(lǐng)域快速解線性方程。比如現(xiàn)在的深度神經(jīng)網(wǎng)絡底層就是解大量線性方程,因此大家預期量子計算可以加速深度神經(jīng)網(wǎng)絡的訓練過程;另外一個就是解決現(xiàn)在經(jīng)典計算很難解決的問題,比如快速加解密;用量子態(tài)模擬和實驗各種分子之間的相互關(guān)系加速生物制藥研發(fā)進展;用量子態(tài)模擬不同元素組合的效果研發(fā)新材料;對物流系統(tǒng)進行優(yōu)化求解,實現(xiàn)對超大規(guī)模物流或城市系統(tǒng)的管理等等。
英特爾高級首席工程師、英特爾研究院量子應用與架構(gòu)總監(jiān)AnneMatsuura對抽象高深的量子計算有個非常形象的比喻:將計算機中的“位”想象成一枚硬幣,硬幣有正反兩面,只能處于一種狀態(tài)中。但是,如果想象硬幣開始旋轉(zhuǎn),越轉(zhuǎn)越快,從某種意義上它可以同時出現(xiàn)正反兩面,也就是處于兩種狀態(tài)的疊加中。量子位就與此類似,兩枚旋轉(zhuǎn)的硬幣,也就是兩個相互糾纏的量子位,可以同時混合出現(xiàn)四種狀態(tài)。以此類推,n個量子位就表示同時出現(xiàn)2的n次方種狀態(tài)。也就是說,量子計算機的計算能力隨著量子位數(shù)量的增加呈指數(shù)級增長趨勢。從理論上講,如果有50個糾纏的量子位,這樣的量子計算系統(tǒng)所獲得的狀態(tài)數(shù)量將超過任何一臺超級計算機。如果有300個糾纏的量子位,那能夠同時表示的狀態(tài)比宇宙中原子的數(shù)量還要多。
這聽起來很強大,但事實上量子位非常脆弱,任何噪音或干擾都會導致信息丟失。實際需要數(shù)十萬甚至數(shù)百萬個高質(zhì)量量子位,才能制造一臺商用級量子計算機。也就是說,量子需要具備可擴展性,才能用于實際應用。
目前業(yè)界包括英特爾、IBM、谷歌都在研究超導量子位的路徑,除此之外,英特爾還有一個獨一無二的路徑——硅自旋量子位。自旋量子位與英特爾的晶體管技術(shù)非常相似,這個路徑非常適合使用現(xiàn)在的整套硅半導體工藝。英特爾已經(jīng)在12寸的晶圓上制造出2個硅自旋量子位,然后控制它們進行糾纏。
英特爾方面認為,相比其他量子位路徑,自旋量子位技術(shù)更能滿足可擴展性需求,因為批量生產(chǎn)高質(zhì)量量子位的重點并不只是數(shù)量,而是需要壽命足夠長、相互之間連接性足夠強的量子位,以便擴展至包含數(shù)百萬量子位的商用級量子計算機,從而能夠在實際的應用領(lǐng)域執(zhí)行有效的量子程序或量子算法。
如果把量子計算商業(yè)化比作一場馬拉松比賽,現(xiàn)在才剛剛跑完一英里。量子計算面臨的挑戰(zhàn)還包括量子位控制、全面糾錯,以及可擴展的全棧量子計算機。由于量子計算是一種全新的計算類型,運行程序的方式完全不同,因此需要開發(fā)量子專用的軟件、硬件和應用,進行全棧式創(chuàng)新。這方面,英特爾既需利用自身在芯片和電路制造工藝方面的專長,也在不斷加強與業(yè)界的研究合作。
趨勢四:IoT時代必不可少的保密計算
當前的加密解決方案主要用于保護在網(wǎng)絡中發(fā)送以及存儲的數(shù)據(jù),但是,數(shù)據(jù)在使用過程中依然有遭遇攻擊的風險,保密計算就旨在保護使用中的數(shù)據(jù),這項研究對于萬物互聯(lián)的IoT時代尤為關(guān)鍵。
對于數(shù)據(jù)安全,業(yè)界以往的研究重點通常是結(jié)合硬件訪問控制技術(shù)和加密技術(shù),以提供保密性和完整性保護。不過,這些研究更多在于保護單臺計算機上的數(shù)據(jù)。如果有多個系統(tǒng)和數(shù)據(jù)集,且分屬于不同的所有者,該怎么辦?如何支持多方在協(xié)作中安全地使用敏感數(shù)據(jù)?
英特爾研究院安全智能化項目組首席工程師JasonMartin提到了聯(lián)邦學習(federatedlearning)。這也是在深度學習大幅推進的今天,業(yè)界普遍推崇的一種方式。
在零售、制造、醫(yī)療、金融服務等許多行業(yè),最大的數(shù)據(jù)集往往被限制在了數(shù)據(jù)孤島中。而之所以出現(xiàn)數(shù)據(jù)孤島,一些是因為隱私問題或監(jiān)管挑戰(zhàn),或是在某些情況下,數(shù)據(jù)太過龐大,無法傳輸,對使用機器學習工具從數(shù)據(jù)中獲取重要洞察造成了巨大障礙。
在消除數(shù)據(jù)孤島方面,聯(lián)邦學習是一種很好的思路,業(yè)界目前已有眾多的嘗試。例如在醫(yī)療領(lǐng)域,英特爾研究院與賓夕法尼亞大學佩雷爾曼醫(yī)學院的生物醫(yī)學圖像計算和分析中心就開展了這方面的合作,一篇關(guān)于醫(yī)學成像領(lǐng)域的聯(lián)邦學習的論文表明,采用聯(lián)邦學習方法訓練深度學習模型,其準確率可以達到采用傳統(tǒng)非私有方法訓練的相同模型的99%,機構(gòu)采用聯(lián)邦學習訓練模型,比僅用自己的數(shù)據(jù)訓練模型時的性能平均高出17%。
此外,英特爾研究院還透露了一種全新的加密系統(tǒng)——同態(tài)加密(homomorphicencryption),它允許應用在不暴露數(shù)據(jù)的情況下,直接對加密數(shù)據(jù)執(zhí)行計算操作。
完全同態(tài)加密的工作原理是什么?傳統(tǒng)加密要求云服務器訪問密鑰,才能解鎖數(shù)據(jù)用于處理。同態(tài)加密允許云對密文或加密數(shù)據(jù)執(zhí)行計算操作,然后將加密結(jié)果返回給數(shù)據(jù)所有者,從而簡化并保護了這一過程。
不過一些挑戰(zhàn)也在阻礙完全同態(tài)加密的采用,最主要就是算力方面的挑戰(zhàn)。比如在傳輸和存儲數(shù)據(jù)時,傳統(tǒng)加密機制的開銷相對來說可以忽略不計,但在完全同態(tài)加密中,同態(tài)密文的篇幅比純數(shù)據(jù)大得多。有時候甚至大1,000-10,000倍,這將導致計算激增,要求處理能力隨之增加。不僅如此,處理開銷還會隨著計算復雜性而增加,正因如此,同態(tài)加密尚未得到廣泛使用。英特爾目前正在研究新的軟硬件方法,并與生態(tài)系統(tǒng)和標準機構(gòu)開展合作,以推動該技術(shù)的普及。
趨勢五:機器編程在降低創(chuàng)新門檻
當我們在為找到異構(gòu)計算平臺作為算力解決方案而歡呼時,另一個問題隨之而來:未來,誰能為這些異構(gòu)系統(tǒng)編程?答案很可能是:沒有人。舉個例子,能為CPU進行調(diào)優(yōu)的可能有20%的開發(fā)人員,能為GPU進行調(diào)優(yōu)的可能也有20%,但同時能為這兩種平臺進行調(diào)優(yōu)的人員,比例一定是大打折扣的,更不用說未來的異構(gòu)平臺可能是同時整合了CPU+GPU+FPGA+NPU+……
這也意味著,未來,當我們真的需要異構(gòu)平臺來提供計算支持的話,也需要某種機制讓程序員甚至非程序員,不需要掌握太多技能就能夠充分使用可用資源來發(fā)揮創(chuàng)造能力,這也是英特爾機器編程的基本驅(qū)動力之一。這一方面或許可以解決跨架構(gòu)專業(yè)編程人員的稀缺,另一方面,也能提升效率,解決軟件開發(fā)和維護的痛點。
那么問題來了,一旦機器編程真正實現(xiàn)了,專業(yè)的程序員會不會失業(yè)?英特爾首席科學家、英特爾研究院機器編程研究主任及創(chuàng)始人JustinGottschlich表示并不會,反而會創(chuàng)造出新的就業(yè)機會。他提出這一觀點的邏輯在于,當今存在的大多數(shù)機器編程系統(tǒng)都需要大量的數(shù)據(jù),這些數(shù)據(jù)通常以代碼形式存在,而代碼都是由專業(yè)程序員編寫的。機器編程盡管可以實現(xiàn)編程自動化,但是仍需要高技能的程序員,專業(yè)程序員寫的代碼越多,構(gòu)建的機器編程系統(tǒng)才能越先進。而更重要的是,如果允許用戶向機器表達他/她的意圖的系統(tǒng)一旦成功,也將降低行業(yè)準入門檻,這樣一來,所有人都可以表達他們的想法,通過機器編程實現(xiàn)自己的創(chuàng)意。這也意味著,軟件開發(fā)中枯燥的部分被自動化,而人得以有更大的自由、靈活度和時間精力去進行創(chuàng)造性的工作。
此外,機器編程的意義還在于改進軟件調(diào)試(Debug),一方面是自動檢測性能漏洞的機器編程系統(tǒng),另一方面是嘗試查找漏洞,讓軟件變得更加強大、可靠,讓程序員的工作效率更高。
JustinGottschlich認為,三個基本進步正在推動機器編程處于現(xiàn)在的拐點之上。首先是算法,包括確定性算法和隨機算法,為建立機器編程系統(tǒng)提供了大量機會;第二是算力,過去十年在算力方面取得了長足的進步,特別是異構(gòu)計算,像是解鎖機器編程的第二把鑰匙,成為關(guān)鍵轉(zhuǎn)折點;最后一個是數(shù)據(jù),現(xiàn)在的數(shù)據(jù)量大且豐富,以GitHub為例,2020年夏天,其代碼庫超過了2億,這些源文件,每一個都可能包含數(shù)百或數(shù)千行代碼,且增長非???。
寫在最后
英特爾研究院在提出這五個顛覆性研究項目時,同時也提出了1000x提升的目標,但其實有些技術(shù)一旦進入實際應用中,在現(xiàn)有基礎(chǔ)上帶來的提升絕不止一千倍,可能是幾個千倍的升級。
如果要預測它們何時來臨?可以引用科幻小說家WilliamGibson的一句話:“未來早已到來,只是分布不均?!边@大概正是科技創(chuàng)新的誘人之處。既要仰望星空,也要腳踏實地。握緊手中的六便士,繼續(xù)追逐皎潔月光。
責任編輯人:CC
-
量子計算
+關(guān)注
關(guān)注
4文章
1075瀏覽量
34879 -
神經(jīng)擬態(tài)計算
+關(guān)注
關(guān)注
1文章
8瀏覽量
2097
發(fā)布評論請先 登錄
相關(guān)推薦
評論