隨著近幾年深度學(xué)習(xí)、神經(jīng)科學(xué)、數(shù)字孿生和量子計(jì)算的迅速發(fā)展,人工智能成為了無論學(xué)術(shù)界還是互聯(lián)網(wǎng)領(lǐng)域的一個(gè)重要的研究熱點(diǎn)。然而,人類在認(rèn)識(shí)世界和改造世界的過程中從自然界和生物特征汲取了大量的靈感和經(jīng)驗(yàn)。追根溯源,人工智能的發(fā)展離不開腦科學(xué)的研究。歷史上,神經(jīng)科學(xué)和人工智能兩個(gè)領(lǐng)域一直存在交叉,對(duì)生物腦更好的理解,將對(duì)智能機(jī)器的建造起到及其重要的作用。
人工智能是模擬腦的一項(xiàng)主要應(yīng)用,現(xiàn)在深度學(xué)習(xí)這種生物學(xué)簡化的模型有其優(yōu)點(diǎn):具有很好的數(shù)學(xué)解釋性,可以在現(xiàn)有的計(jì)算機(jī)架構(gòu)(馮諾依曼)上實(shí)現(xiàn),但是同樣有瓶頸。如:計(jì)算代價(jià)高,不利于硬件實(shí)現(xiàn)等。盡管近年來深度學(xué)習(xí)和大數(shù)據(jù)的出現(xiàn)使得模型在一些任務(wù)上超越人類,但是對(duì)于人腦可以處理的復(fù)雜問題卻無能為力,同時(shí)需要大量的計(jì)算資源和數(shù)據(jù)資源作為支撐。
相反人類大腦是一個(gè)極度優(yōu)化的系統(tǒng),它的工作耗能僅為25瓦,神經(jīng)元的數(shù)量卻在10的11次方的數(shù)量級(jí)上(其中的突觸達(dá)到每個(gè)神經(jīng)元10000個(gè))。這樣龐大的網(wǎng)絡(luò)卻有如此低的能耗,使得人類大腦在復(fù)雜問題的處理有絕對(duì)優(yōu)勢。
因此,人們希望能模仿人腦的工作方式來處理信息,構(gòu)建神經(jīng)網(wǎng)絡(luò)模型,成為了模擬腦的關(guān)鍵。類腦計(jì)算這一個(gè)研究方向逐漸受到各個(gè)國家的重視,例如歐盟在2013年將“人腦計(jì)劃”納入其未來旗艦技術(shù)項(xiàng)目,2013年4月2日,美國總統(tǒng)奧巴馬宣布啟動(dòng)名為“通過推動(dòng)創(chuàng)新型神經(jīng)技術(shù)開展大腦研究(Brain Research through Advancing Innovative Neurotechnologies)”計(jì)劃,簡稱為腦科學(xué)研究計(jì)劃(BRAIN),以及中國在2017年提出的“一體兩翼”的腦科學(xué)與類腦科學(xué)研究,可以看到腦科學(xué)研究尤其是類腦計(jì)算將是繼深度學(xué)習(xí)之后的又一大人工智能的突破點(diǎn)。目前許多國家專門成立腦科學(xué)研究中心,例如哥倫比亞大學(xué)的基礎(chǔ)腦科學(xué)研究中心,清華大學(xué)類腦計(jì)算研究中心等。
類腦計(jì)算是什么?
類腦計(jì)算是近年來新興的研究領(lǐng)域。它類似于人工智能、機(jī)器學(xué)習(xí)等領(lǐng)域,很難準(zhǔn)確定義。目前,業(yè)界還沒有普遍認(rèn)可的類腦計(jì)算定義。類腦計(jì)算的描述性定義是“受人腦信息處理方式啟發(fā),以更通用的人工智能和高效智能邊緣端、云端為目標(biāo)構(gòu)建信息系統(tǒng)的技術(shù)總稱”。類腦計(jì)算整合腦科學(xué)、計(jì)算神經(jīng)科學(xué)、認(rèn)知科學(xué)甚至統(tǒng)計(jì)物理的知識(shí)來解決現(xiàn)有傳統(tǒng)計(jì)算技術(shù)的一些問題,進(jìn)而構(gòu)建更通用、高效、智能的新型信息系統(tǒng)。
?
狹義的類腦計(jì)算是指神經(jīng)形態(tài)計(jì)算,主要是開發(fā)神經(jīng)形態(tài)芯片支持來自計(jì)算神經(jīng)科學(xué)的脈沖神經(jīng)網(wǎng)絡(luò)(SNN)。廣義的類腦計(jì)算還包括內(nèi)存計(jì)算、憶阻器芯片甚至支持傳統(tǒng)人工神經(jīng)網(wǎng)絡(luò)(ANN)的人工智能芯片的開發(fā)。所以類腦計(jì)算的研發(fā)和人工智能一樣,需要從模型算法、軟件、芯片、數(shù)據(jù)等各個(gè)方向協(xié)同。
?
類腦計(jì)算模型
突破神經(jīng)科學(xué)與AI的鴻溝
目前,神經(jīng)科學(xué)和人工智能之間存在巨大的差距。神經(jīng)科學(xué)側(cè)重于重建大腦內(nèi)部的精細(xì)結(jié)構(gòu)和生理細(xì)節(jié),而人工智能側(cè)重于通過數(shù)學(xué)抽象神經(jīng)結(jié)構(gòu)來實(shí)現(xiàn)高計(jì)算的高效率。
?
因此,如何將人工智能和神經(jīng)科學(xué)交叉很好地融合成為一個(gè)艱巨的挑戰(zhàn)。在類腦計(jì)算中,脈沖神經(jīng)網(wǎng)絡(luò)兼具生物合理性和計(jì)算效率,或能為人工智能提供新范式。簡單來說,可以認(rèn)為SNN = ANN+Neuronal Dynamics。如何找到一個(gè)兼具生物合理性和計(jì)算效率的脈沖神經(jīng)元模型,如何建立脈沖神經(jīng)元模型與AI任務(wù)之間的關(guān)系,是類腦計(jì)算領(lǐng)域的核心問題。
目前,SNN一般使用LIF神經(jīng)元作為構(gòu)建神經(jīng)網(wǎng)絡(luò)的基本單位。原因是LIF神經(jīng)元是一個(gè)典型的綜合模型,不僅具有IF模型的簡單性,還能像H-H神經(jīng)元模型一樣模擬生物神經(jīng)元豐富的生理特性。
眾所周知,ANN和SNN各有特色和長處。ANN能夠充分利用現(xiàn)有計(jì)算機(jī)的計(jì)算特性,以神經(jīng)元狀態(tài)表達(dá)信息,在空間領(lǐng)域傳遞信息,其主要運(yùn)算是稠密矩陣向量乘法。相比之下,SNN使用脈沖序列在空間域和時(shí)間域表達(dá)信息和傳遞信息,其主要操作是事件驅(qū)動(dòng)的稀疏加法,既有計(jì)算效率又有生物可信度。
類腦學(xué)習(xí)算法
與ANN訓(xùn)練相比,SNN的有效訓(xùn)練面臨許多問題和挑戰(zhàn)。如脈沖神經(jīng)元內(nèi)復(fù)雜的時(shí)空動(dòng)態(tài)過程、脈沖神經(jīng)元間傳遞的非導(dǎo)數(shù)脈沖信息、脈沖退化和訓(xùn)練精度損失等。目前,SNN訓(xùn)練方法主要包括無監(jiān)督學(xué)習(xí)、間接監(jiān)督學(xué)習(xí)和直接監(jiān)督學(xué)習(xí)。這些訓(xùn)練方法試圖從不同角度解決上述問題和挑戰(zhàn)。
一、基于STDP的無監(jiān)督學(xué)習(xí)
脈沖時(shí)間相關(guān)突觸可塑性(STDP)是一種典型的無監(jiān)督學(xué)習(xí)方法,可以控制大腦神經(jīng)元之間權(quán)重連接的更新。一般來說,兩個(gè)神經(jīng)元的放電時(shí)間越接近,它們之間的綁定關(guān)系就越緊密。如上圖所示,當(dāng)兩個(gè)神經(jīng)元相繼被激活時(shí),順序關(guān)系緊密的兩邊會(huì)加強(qiáng)連接,相反關(guān)系的兩邊會(huì)減弱連接。所以神經(jīng)元之間往往建立單向的強(qiáng)化連接。
如果兩個(gè)神經(jīng)元同時(shí)被激活,就與共同的下游神經(jīng)元形成了更緊密的聯(lián)系,這樣它們就是同級(jí)神經(jīng)元,彼此之間存在間接關(guān)系。例如,由STDP規(guī)則和WTA規(guī)則組成的學(xué)習(xí)模型就是一種簡單有效的無監(jiān)督學(xué)習(xí)方法。具體來說,在輸入層,畫面被轉(zhuǎn)換成脈沖序列(脈沖發(fā)射率與像素值成正比)。
神經(jīng)元以全連接方式向前連接,接收興奮輸入,并根據(jù)STDP規(guī)則進(jìn)行更新。它們與抑制性神經(jīng)元向后一對(duì)一連接,產(chǎn)生側(cè)抑制(即軟WTA),脈沖發(fā)放率由適應(yīng)性閾值平衡。
STDP模型通過調(diào)整局部規(guī)則來學(xué)習(xí),易于在神經(jīng)形態(tài)芯片上分布式實(shí)現(xiàn),具有在線學(xué)習(xí)的能力。但局部突觸可塑性不足以解釋單個(gè)突觸的變化如何協(xié)調(diào)神經(jīng)系統(tǒng)整體目標(biāo)的實(shí)現(xiàn)。這種無監(jiān)督學(xué)習(xí)訓(xùn)練方法存在一些問題,如:難以獲得高性能網(wǎng)絡(luò),無法用于大規(guī)模深度神經(jīng)網(wǎng)絡(luò)。
二、基于ANN轉(zhuǎn)SNN的間接有監(jiān)督學(xué)習(xí)
神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)換的SNN方法是指訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò)模型,然后將學(xué)習(xí)到的神經(jīng)網(wǎng)絡(luò)權(quán)重轉(zhuǎn)移到具有相同結(jié)構(gòu)的SNN。其基本思想是用SNN的平均脈率來近似神經(jīng)網(wǎng)絡(luò)中的ReLU激活值。
因此,人工神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)換的SNN方法在模型精度和模型模擬步驟T之間有一個(gè)折衷問題。該方法利用監(jiān)督信號(hào)在原始神經(jīng)網(wǎng)絡(luò)模型中訓(xùn)練梯度反向傳播,然后將其轉(zhuǎn)化為SNN模型,因此是一種間接的監(jiān)督學(xué)習(xí)。
人工神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)換的SNN方法具有很強(qiáng)的可擴(kuò)展性,很容易將新的或大規(guī)模的人工神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)轉(zhuǎn)換成相應(yīng)的SNN版本。一般情況下,模擬時(shí)間步長T越大,SNN的平均脈率越接近ANN中的激活值,兩個(gè)模型之間的誤差越小,從而實(shí)現(xiàn)ANN-SNN的幾乎無損轉(zhuǎn)換。但時(shí)間步長T過長會(huì)導(dǎo)致訓(xùn)練和推理效率下降,SNN的功耗優(yōu)勢也會(huì)降低。
三、SNN直接有監(jiān)督學(xué)習(xí)的發(fā)展
直接訓(xùn)練算法的難點(diǎn)在于SNN復(fù)雜的時(shí)空動(dòng)力學(xué)和脈沖發(fā)射的不可微性問題。將脈沖神經(jīng)元的微分方程形式轉(zhuǎn)化為便于計(jì)算機(jī)模擬的差分方程形式,同時(shí)沿空間和時(shí)間維度擴(kuò)展信息,采用脈沖梯度近似法。由于近似替代函數(shù)保留了脈沖發(fā)射的“非線性特性”,其梯度近似曲線具有一定的魯棒性。
STBP雖然解決了SNN網(wǎng)絡(luò)反向傳播訓(xùn)練的梯度替代問題,但只能訓(xùn)練不超過10層的小規(guī)模網(wǎng)絡(luò)。主要問題是:網(wǎng)絡(luò)一旦深入,與ANN相比,脈沖神經(jīng)元的二元激活方式及其復(fù)雜的時(shí)空動(dòng)態(tài)更容易造成網(wǎng)絡(luò)的梯度消失或爆炸。
通過進(jìn)一步分析SNN的時(shí)空動(dòng)態(tài)特性可以看出,為了獲得合適的網(wǎng)絡(luò)脈沖率,在神經(jīng)元膜電位和閾值之間建立平衡對(duì)于網(wǎng)絡(luò)的性能是非常重要的。過低的分發(fā)率可能導(dǎo)致有效信息不足,而過高的分發(fā)率會(huì)降低SNN網(wǎng)絡(luò)對(duì)輸入的區(qū)分度。
因此,結(jié)合脈沖神經(jīng)元閾值的BN算法,即閾值依賴BN方法(TDBN),緩解了SNN的規(guī)模瓶頸。首次將SNN的網(wǎng)絡(luò)規(guī)模提升到50層,在ImageNet等大規(guī)模數(shù)據(jù)集上取得具有競爭力的性能,并證明該方法可以緩解深度SNN的梯度消失和爆炸。
雖然TDBN增加了SNN的規(guī)模,但與傳統(tǒng)的數(shù)百層深度網(wǎng)絡(luò)相比,其性能仍不足以在大規(guī)模數(shù)據(jù)集上與ANN抗衡。為了進(jìn)一步提高SNN的網(wǎng)絡(luò)表達(dá)能力,擴(kuò)大網(wǎng)絡(luò)規(guī)模,提高任務(wù)性能,借鑒經(jīng)典的ResNet結(jié)構(gòu)似乎是一種可行的方法。
但是將ResNet結(jié)構(gòu)直接復(fù)制到SNN (Vanilla Res-SNN)中存在脈沖退化的問題,即網(wǎng)絡(luò)越深,精度越低。因此,一種新的Ms-Rse-SNN結(jié)構(gòu)被提出,其中LIF神經(jīng)元被置于殘余塊中,不同層神經(jīng)元的膜電位被縮短。利用動(dòng)態(tài)均勻性理論證明該結(jié)構(gòu)不存在脈沖退化問題。在較大范圍內(nèi)解決了大規(guī)模SNN直接訓(xùn)練問題(482層CIFAR-10,104層ImageNet),后者取得76%分類準(zhǔn)確率TOP-1的SOTA結(jié)果。
此外,根據(jù)SNN處理數(shù)據(jù)的不同,采用數(shù)據(jù)相關(guān)的處理模式可以為直接訓(xùn)練SNN的某些任務(wù)帶來額外的性能增益。如:在神經(jīng)形態(tài)學(xué)視覺的任務(wù)中,事件流數(shù)據(jù)往往是稀疏和不均勻的。
根據(jù)事件流在不同時(shí)刻的輸入信噪比,結(jié)合時(shí)間注意力機(jī)制,使用SNN以數(shù)據(jù)驅(qū)動(dòng)的方式處理任務(wù),進(jìn)一步降低網(wǎng)絡(luò)能耗,提高性能。實(shí)驗(yàn)結(jié)果表明,即使去掉一半的輸入,SNN的性能也能基本保持不變或略有提高。總之,SNN已經(jīng)進(jìn)入大規(guī)模深度模型和算法的開發(fā)階段,并將進(jìn)一步應(yīng)用于傳統(tǒng)人工智能領(lǐng)域的諸多下游任務(wù)。
?
類腦計(jì)算軟件
類腦計(jì)算軟件框架和工具通常包括三個(gè)方面:神經(jīng)形態(tài)學(xué)芯片工具鏈、神經(jīng)系統(tǒng)仿真模擬和SNN學(xué)習(xí)框架。
目前神經(jīng)芯片的工具鏈還處于早期階段,存在軟硬件耦合緊密、通用性和自動(dòng)化程度低、使用便捷性差等諸多問題。神經(jīng)系統(tǒng)軟件模擬框架可以詳細(xì)模擬生物神經(jīng)網(wǎng)絡(luò),但需要用戶具有一定的計(jì)算神經(jīng)科學(xué)基礎(chǔ)。
現(xiàn)有仿真工具軟件框架通常采用C語言開發(fā),缺乏跨平臺(tái)能力和對(duì)各種后端硬件的深度優(yōu)化支持。而且這些軟件通常是為CPU、GPU等商用硬件設(shè)計(jì),不支持不同類型的神經(jīng)形態(tài)芯片。SNN學(xué)習(xí)框架的目標(biāo)是結(jié)合深度學(xué)習(xí)框架開發(fā)的便利和SNN特點(diǎn),充分利用深度學(xué)習(xí)領(lǐng)域的各種資源,加速SNN網(wǎng)絡(luò)訓(xùn)練。相關(guān)工作基本處于早期且不夠穩(wěn)定,無法適應(yīng)不同的軟硬件接口。即使是基于GPU架構(gòu)開發(fā),也很難充分利用SNN自身的特點(diǎn)來加速。
類腦計(jì)算芯片
從功能上看,類腦芯片主要四類:
人工神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí)加速器(TPU、寒武紀(jì)、華為升騰等);
脈沖神經(jīng)網(wǎng)絡(luò)的神經(jīng)形態(tài)學(xué)芯片(TrueNorth、Loihi、達(dá)爾文等芯片);
人工/脈沖神經(jīng)網(wǎng)絡(luò)的異構(gòu)融合芯片(天機(jī)芯片);
大腦模擬芯片(SpiNNaker,ROLLS,Loihi等。)支持以低延遲、高動(dòng)態(tài)的神經(jīng)形態(tài)學(xué)相機(jī)為代表的神經(jīng)元編程和感知芯片。
類腦芯片的架構(gòu)包括主流深度學(xué)習(xí)加速器采用的存儲(chǔ)-存儲(chǔ)分離架構(gòu),主流眾核分散架構(gòu)芯片的近存計(jì)算架構(gòu),以及內(nèi)存計(jì)算芯片和憶阻器芯片采用的存儲(chǔ)-計(jì)算一體化架構(gòu)。從芯片設(shè)計(jì)的角度來看,路由器連接的多核架構(gòu)芯片具有更好的可擴(kuò)展性,多個(gè)功能核獨(dú)立工作,核之間定期同步共享數(shù)據(jù)。因此可以支持更大網(wǎng)絡(luò)規(guī)模和更廣應(yīng)用范圍的SNN。
使用純數(shù)字信號(hào)的小規(guī)模單核芯片可以通過內(nèi)存計(jì)算進(jìn)行矩陣向量乘法,具有同步和異步設(shè)計(jì)流程,往往具有更高的能效和更低的靜態(tài)功耗,更便于技術(shù)移植,但神經(jīng)元和突觸的規(guī)模有限。數(shù)?;旌系男∫?guī)模單核芯片采用數(shù)字異步脈沖路由,使用內(nèi)存中數(shù)字計(jì)算方法進(jìn)行矩陣向量乘法,使用模擬膜電位進(jìn)行激活和更新,因此能效最高,但也存在神經(jīng)元和突觸數(shù)量少、設(shè)計(jì)不方便等問題。
類腦計(jì)算數(shù)據(jù)
眾所周知,深度學(xué)習(xí)發(fā)展四要素為算法、算力、開發(fā)工具以及大規(guī)模的數(shù)據(jù)。在深度學(xué)習(xí)領(lǐng)域,成百上千個(gè)開源數(shù)據(jù)集覆蓋分類、檢測、跟蹤、自然語言等,極大地促進(jìn)了深度學(xué)習(xí)的繁榮。
相比之下,類腦數(shù)據(jù)集十分匱乏,現(xiàn)有的數(shù)據(jù)集主要包括四類:
一、通過轉(zhuǎn)換算法將ANN數(shù)據(jù)集轉(zhuǎn)變?yōu)槭录盘?hào)數(shù)據(jù)集,典型數(shù)據(jù)集包括基于ImageNet轉(zhuǎn)換而來的ES-ImageNet,基于UCF101轉(zhuǎn)化的事件信號(hào)數(shù)據(jù)集ES-UCF101,基于BDD100K轉(zhuǎn)化的事件信號(hào)數(shù)據(jù)集BDD100K-DVS等;
二、利用神經(jīng)形態(tài)相機(jī)DVS將圖像或視頻數(shù)據(jù)庫轉(zhuǎn)化為事件數(shù)據(jù)集,比如N-MNIST、CIFA10-DVS等數(shù)據(jù)集;
三、通過神經(jīng)形態(tài)相機(jī)DVS直接拍攝獲取的數(shù)據(jù)集,比如DVS-Gesture、PKU-DDD17-CAR、Gen1 Detection、1Mpx Detection、PKU-DAVIS-SOD等;
四、其它類型的類腦數(shù)據(jù)集,比如EEG數(shù)據(jù)集、腦機(jī)接口(BCI)相關(guān)的數(shù)據(jù)集、幀數(shù)據(jù)和事件的混合數(shù)據(jù)等。
類腦計(jì)算的未來:
在學(xué)科交叉與突破創(chuàng)新中
蓬勃發(fā)展
模型算法方面
?
不僅可以通過增加模型參數(shù)、網(wǎng)絡(luò)深度或?qū)挾仁沟肧NN模型變大變強(qiáng),更重要的提供向內(nèi)增加神經(jīng)元復(fù)雜程度的能力支撐,縮減神經(jīng)科學(xué)與人工智能之間存在的鴻溝。因此,構(gòu)造包含更豐富動(dòng)力學(xué)的神經(jīng)元模型、神經(jīng)網(wǎng)絡(luò)及對(duì)應(yīng)的算法是未來的重要方向。
?
類腦軟件方面
如何提升SNN的研究生態(tài)是未來發(fā)展的必經(jīng)之路,重要的方向包括神經(jīng)形態(tài)工具鏈的軟硬件去耦合、SNN訓(xùn)練加速框架及高效的神經(jīng)系統(tǒng)仿真和模擬等。在類腦數(shù)據(jù)方面,如何構(gòu)建具備稀疏事件特征、具備豐富的時(shí)間尺度/空間尺度特征的大規(guī)模多模態(tài)混合數(shù)據(jù)集十分重要。
類腦芯片方面
主要關(guān)注神經(jīng)形態(tài)芯片如何進(jìn)行更高效的感知、存儲(chǔ)和計(jì)算,如何構(gòu)建融合感存算一體化的計(jì)算系統(tǒng)。研究更高效的芯片架構(gòu)、研制更具有類腦元素的芯片功能也是未來發(fā)展的重要方向。芯片架構(gòu)上可以探索類腦芯片的分層存儲(chǔ)體系、高效在線學(xué)習(xí)架構(gòu)及與其它硬件平臺(tái)的高效兼容能力;芯片功能上可以探索如何融入更多的算子支持比如微分方程、線性方程求解,以及如何在算子層面上支持更類腦的神經(jīng)元模型和網(wǎng)絡(luò)結(jié)構(gòu)等。
類腦系統(tǒng)的總體框架包括類腦的模型、算法、軟件以及芯片,并結(jié)合豐富類腦數(shù)據(jù)構(gòu)造的計(jì)算系統(tǒng),在人工智能領(lǐng)域可以朝著高效云端/邊緣端類腦計(jì)算系統(tǒng)的構(gòu)造方向發(fā)展,在腦科學(xué)領(lǐng)域可利用現(xiàn)有的超算服務(wù)器集群進(jìn)行神經(jīng)動(dòng)力學(xué)的仿真和模擬,構(gòu)建更為復(fù)雜的腦仿真和神經(jīng)模擬系統(tǒng)。
中國類腦計(jì)算的研究成果
我國的類腦智能研究水平處于國際前沿。2016年,“腦科學(xué)與類腦科學(xué)研究”(簡稱“中國腦計(jì)劃”)被作為連接腦科學(xué)和信息科學(xué)的橋梁正式提出。此外,多所高校也積極參與類腦計(jì)算的研究。其中,中科院開發(fā)的類腦認(rèn)知引擎平臺(tái)能夠模仿哺乳動(dòng)物的大腦,實(shí)現(xiàn)多感覺融合、決策等多種功能。
?
中國科學(xué)家研制出新型類腦計(jì)算芯片
我國科學(xué)家研制成功面向人工通用智能的新型類腦計(jì)算芯片——“天機(jī)芯”芯片,而且成功在無人駕駛自行車上進(jìn)行了實(shí)驗(yàn)。清華大學(xué)類腦計(jì)算研究中心施路平教授團(tuán)隊(duì)的相關(guān)論文《面向人工通用智能的異構(gòu)“天機(jī)芯”芯片架構(gòu)》,曾在國際期刊《自然》雜志以封面文章的形式發(fā)表。
世界首款多陣列憶阻器存算一體系統(tǒng)誕生
清華大學(xué)微電子所、未來芯片技術(shù)高精尖創(chuàng)新中心錢鶴、吳華強(qiáng)教授團(tuán)隊(duì),與合作者共同研發(fā)出一款基于多個(gè)憶阻器陣列的存算一體系統(tǒng),在處理卷積神經(jīng)網(wǎng)絡(luò)時(shí)的能效,比圖形處理器芯片高兩個(gè)數(shù)量級(jí),大幅提升計(jì)算設(shè)備的算力,且比傳統(tǒng)芯片的功耗降低100倍,相關(guān)成果發(fā)表于《自然》。
?
我科學(xué)家首次提出“類腦計(jì)算完備性”
清華大學(xué)計(jì)算機(jī)系張悠慧團(tuán)隊(duì)和精儀系施路平團(tuán)隊(duì)與合作者在《自然》雜志發(fā)表題為《一種類腦計(jì)算系統(tǒng)層次結(jié)構(gòu)》的論文,填補(bǔ)了類腦計(jì)算系統(tǒng)領(lǐng)域完備性理論與相應(yīng)的類腦計(jì)算系統(tǒng)層次結(jié)構(gòu)方面的空白。
藍(lán)海大腦液冷散熱服務(wù)器可搭建NVIDIA 4 × A100 / 3090 / P6000 / RTX6000,并將液冷冷板固定在服務(wù)器的主要發(fā)熱器件上,依靠流經(jīng)冷板的液體將熱量帶走達(dá)到散熱目的。冷板液冷解決了服務(wù)器里發(fā)熱量大的器件的散熱,其他散熱器件還得依靠風(fēng)冷。所以采用冷板式液冷的服務(wù)器也稱為氣液雙通道服務(wù)器。冷板的液體不接觸被冷卻器件,中間采用導(dǎo)熱板傳熱,安全性高。
藍(lán)海大腦擁有完全自主研發(fā)和靈活定制能力,是國內(nèi)最早從事液冷GPU服務(wù)器的廠商之一,并且在獨(dú)到的加固、保密和安全等產(chǎn)品技術(shù)領(lǐng)域有深厚的積累。藍(lán)海大腦端到端的解決方案,賦能AI、云計(jì)算、大數(shù)據(jù)、5G、區(qū)塊鏈、元宇宙等新興技術(shù)創(chuàng)新和應(yīng)用,積極為中國類腦計(jì)算、新基建、信創(chuàng)、東數(shù)西算、社會(huì)經(jīng)濟(jì)的數(shù)字化和智能化轉(zhuǎn)型升級(jí)提供堅(jiān)實(shí)的算力保證。同時(shí)重視全球合作共贏,與英特爾、英偉達(dá)、希捷、華為、飛騰等國內(nèi)外產(chǎn)業(yè)鏈伙伴保持緊密的戰(zhàn)略合作關(guān)系,加速產(chǎn)品方案的適配和應(yīng)用場景拓展,更好地為各行各業(yè)服務(wù)。
審核編輯:符乾江
評(píng)論
查看更多