0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工智能未來:腦科學(xué)啟發(fā)的類腦計(jì)算

mK5P_AItists ? 來源:未知 ? 作者:胡薇 ? 2018-04-25 10:07 ? 次閱讀

腦科學(xué)是一門實(shí)踐性很強(qiáng)的交叉學(xué)科,包含了神經(jīng)科學(xué),醫(yī)學(xué),數(shù)學(xué),計(jì)算科學(xué)等多門學(xué)科。

隨著近幾年深度學(xué)習(xí)的迅速發(fā)展,人工智能成為了無論學(xué)術(shù)界還是互聯(lián)網(wǎng)領(lǐng)域的一個(gè)重要的研究熱點(diǎn)。然而,人類在認(rèn)識(shí)世界和改造世界的過程中從自然界和生物特征汲取了大量的靈感和經(jīng)驗(yàn)。追根溯源,人工智能的發(fā)展離不開腦科學(xué)的研究。歷史上,神經(jīng)科學(xué)和人工智能兩個(gè)領(lǐng)域一直存在交叉,對(duì)生物腦更好的理解,將對(duì)智能機(jī)器的建造上起到及其重要的作用。

人工智能是模擬腦的一項(xiàng)主要應(yīng)用,現(xiàn)在深度學(xué)習(xí)這種生物學(xué)簡(jiǎn)化的模型有它的優(yōu)點(diǎn),具有很好的數(shù)學(xué)解釋性,可以在現(xiàn)有的計(jì)算機(jī)架構(gòu)(馮諾依曼)上實(shí)現(xiàn),但是同樣有瓶頸,例如:計(jì)算代價(jià)高,不利于硬件實(shí)現(xiàn)等。盡管近年來深度學(xué)習(xí)和大數(shù)據(jù)的出現(xiàn)使得這種模型在一些任務(wù)上超越人類,但是對(duì)于人腦可以處理的復(fù)雜問題卻無能為力,同時(shí)需要大量的計(jì)算資源和數(shù)據(jù)資源作為支撐。

相反人類大腦是一個(gè)極度優(yōu)化的系統(tǒng),它的工作耗能僅為25瓦特,神經(jīng)元的數(shù)量卻在10的11次方的數(shù)量級(jí)上,并且這其中的突觸也達(dá)到了每個(gè)神經(jīng)元有10000個(gè)。這樣龐大的網(wǎng)絡(luò)卻有如此低的能耗,這是使得人類大腦在復(fù)雜問題的處理有絕對(duì)優(yōu)勢(shì)。

1. 類腦計(jì)算與神經(jīng)網(wǎng)絡(luò)的發(fā)展過程

早期的類腦計(jì)算(Brian-like Computing)也可以狹義的稱為神經(jīng)計(jì)算(Neural Computation),將神經(jīng)元和突觸模型作為基礎(chǔ),把這些模型用在許多現(xiàn)實(shí)中的識(shí)別任務(wù),從而發(fā)揮模擬人腦功能,例如字體識(shí)別,人臉識(shí)別等等。這就不得不提到人工智能的基礎(chǔ)理論——機(jī)器學(xué)習(xí)

結(jié)合機(jī)器學(xué)習(xí)和神經(jīng)元模型,最早的神經(jīng)元網(wǎng)絡(luò)是由美國(guó)計(jì)算機(jī)科學(xué)家羅森布拉特(F.Roseblatt)于1957年提出的感知機(jī)(perceptron),也被稱為第一代神經(jīng)網(wǎng)絡(luò)。

前兩代神經(jīng)網(wǎng)絡(luò)都是在以數(shù)據(jù)科學(xué)為背景發(fā)展而來,將神經(jīng)元的輸入和輸出抽象成向量和矩陣,神經(jīng)元的功能主要是做矩陣的相乘運(yùn)算。但是,實(shí)際上生物神經(jīng)元對(duì)信息的處理不是由模擬數(shù)字組成矩陣,而是以脈沖形式出現(xiàn)的生物電信號(hào),所以前兩代神經(jīng)網(wǎng)絡(luò)僅保留了神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),而極大簡(jiǎn)化了網(wǎng)絡(luò)中的神經(jīng)元模型。

類腦計(jì)算的研究基礎(chǔ)主要是以脈沖神經(jīng)元模型為基礎(chǔ)的神經(jīng)網(wǎng)絡(luò)。脈沖神經(jīng)網(wǎng)絡(luò)(Spiking Neural Network,SNN)由W.Maass在1997年首次提出,其底層用脈沖函數(shù)模仿生物點(diǎn)信號(hào)作為神經(jīng)元之間的信息傳遞方式,可以算做第三代神經(jīng)網(wǎng)絡(luò)[2]。

SNN的優(yōu)點(diǎn)是具有更多的生物解釋性,一方面可以作為計(jì)算神經(jīng)學(xué)對(duì)生物腦現(xiàn)象模擬的基礎(chǔ)工具;另一方面,由于其信息用脈沖傳遞的特點(diǎn),SNN結(jié)構(gòu)更容易在硬件上實(shí)現(xiàn),如FPGA等片上系統(tǒng)(on-chip system)。但是,脈沖函數(shù)不可導(dǎo),因此SNN不能直接應(yīng)用梯度法進(jìn)行訓(xùn)練,對(duì)SNN的學(xué)習(xí)算法一直是近年來主要的研究問題。

2. SNN的模型、結(jié)構(gòu)以及在機(jī)器學(xué)習(xí)中的應(yīng)用

SNN主要結(jié)構(gòu)有前饋(Feedforward)和循環(huán)鏈接(Recurrent)兩種。前饋比較常見,從結(jié)構(gòu)上說與傳統(tǒng)的前饋神經(jīng)網(wǎng)絡(luò)相似,不同的是單個(gè)的神經(jīng)元模型以及整個(gè)網(wǎng)絡(luò)的數(shù)據(jù)處理方式。

SNN的神經(jīng)元模型總體上來說是一類以微分方程構(gòu)成的模型,帶有時(shí)間屬性。可以理解為傳統(tǒng)的神經(jīng)元只是當(dāng)前時(shí)刻的輸入與權(quán)重的加權(quán)和,SNN的神經(jīng)元?jiǎng)t是在一定寬度的時(shí)間窗內(nèi)的輸入與權(quán)重的加權(quán)和。其中最常見的神經(jīng)元模型是L&F(Leak and Fire)模型,也可以把這種神經(jīng)元看做為一個(gè)店帶有電容的電路,按照電路原理來定義可以有如下形式:

圖1. I&F神經(jīng)元的模擬電路[3]

具體模型公式為:

其中?表示膜電位,??表示輸入突觸電流,每當(dāng)膜電位達(dá)到一個(gè)閾值??,便會(huì)產(chǎn)生一個(gè)脈沖,并將膜電位恢復(fù)到復(fù)位電位??,同時(shí)在一段時(shí)間內(nèi)會(huì)產(chǎn)生一個(gè)不應(yīng)期(refractory),在此期間,模電位保持在??,不對(duì)輸入的突觸電流做出響應(yīng)。

L&F是一階微分方程的形式,因此是一種線性響應(yīng)模型,但是由于脈沖閾值以及不應(yīng)期等機(jī)制的存在,使得L&F同樣變成了一種對(duì)輸入的非線性映射。

利用L&F構(gòu)成網(wǎng)絡(luò)就涉及到如何在神經(jīng)元之間傳遞脈沖信號(hào),這就是突觸電流的響應(yīng)模型。常用的電流模型是一種基于指數(shù)衰減的模型(與膜電位的模型很相似),改進(jìn)的模型可以是兩個(gè)衰減模型的疊加,來模擬平滑的脈沖信號(hào)(代替階躍函數(shù)表示的脈沖):

其中?和是時(shí)間常數(shù),??是表示一個(gè)脈沖的單位階躍函數(shù)。

由于SNN存在大量的微分方程計(jì)算并依賴于計(jì)算機(jī)仿真,SNN中的數(shù)值基本是通過數(shù)值方法計(jì)算的微分方程的狀態(tài)。因此,具體的仿真過程中,與傳統(tǒng)神經(jīng)網(wǎng)絡(luò)的最大區(qū)別在于時(shí)間步的概念,與硬件中的時(shí)鐘十分相似。所以突觸模型中還可以帶有一個(gè)熟悉就是延遲(delay),可以和權(quán)重一樣被訓(xùn)練成為表達(dá)輸入特征的一個(gè)重要參數(shù)。目前SNN的學(xué)習(xí)算法很多基于脈沖的間隔的精確時(shí)間而不是一段時(shí)間的脈沖的數(shù)量來調(diào)整網(wǎng)絡(luò)參數(shù),如根據(jù)hebbian規(guī)則演變而來的STDP(Spike time dependance plasicity)。

圖2. STDP的生物學(xué)特性[4]

另一種結(jié)構(gòu)是帶有循環(huán)鏈接,主要的代表模型是液體狀態(tài)機(jī)(liquid state machine, LSM)。模型結(jié)構(gòu)屬于水庫計(jì)算[5](Reservoir Computing)的一種,是一種結(jié)構(gòu)更復(fù)雜,用來處理高維時(shí)序問題的RNN(Recurrent Neural Network)結(jié)構(gòu)[6, 7]。LSM的提出主要是通過循環(huán)鏈接表示了對(duì)時(shí)序問題的記憶能力,通過對(duì)輸入的高維映射,可以用線性模型進(jìn)行分類和回歸。LSM的結(jié)構(gòu)主要分為3層:

輸入層:主要負(fù)責(zé)將輸入的模擬數(shù)值編碼成脈沖序列(Spike Trains)并按照 一定比例輸入到水庫層中。

水庫層:根據(jù)生物腦中的神經(jīng)元類型比例,包含80%的興奮神經(jīng)元和20%的抑制神經(jīng)元,鏈接是隨機(jī)的循環(huán)鏈接。

輸出層:讀取每個(gè)水庫層中神經(jīng)元的狀態(tài),并用邏輯回歸等進(jìn)線性分類。

從機(jī)器學(xué)習(xí)的角度出發(fā),SNN的應(yīng)用主要分為分類和回歸兩種任務(wù),這兩種任務(wù)主要涉及到數(shù)據(jù)的組織和處理。因此,數(shù)據(jù)進(jìn)入SNN之前需要先進(jìn)行編碼成為脈沖序列,經(jīng)典的編碼方式有頻率(Rate),二進(jìn)制(Binary),排序(Rank)等[4, 8]。

3. 類腦計(jì)算與人工智能的研究趨勢(shì)

目前類腦計(jì)算的主要研究趨勢(shì)分為三個(gè)方面:

首先是基礎(chǔ)的生物腦中的神經(jīng)元,突觸及記憶,注意等機(jī)制的建模;

第二,基于生物機(jī)制建模的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法以及在模式識(shí)別等機(jī)器學(xué)習(xí)任務(wù)中的應(yīng)用;

最后,基于生物激勵(lì)的算法和神經(jīng)網(wǎng)絡(luò)的硬件系統(tǒng)研究。

目前對(duì)于腦的認(rèn)知機(jī)制的研究還存在很多空白,生物腦的運(yùn)轉(zhuǎn)機(jī)制的神秘面紗沒有被徹底解開,只有少部分現(xiàn)象被發(fā)現(xiàn)[9]。腦建模是在認(rèn)知腦的基礎(chǔ)上進(jìn)行的,目前的類腦計(jì)算算法還有很大的研究?jī)r(jià)值,目前發(fā)現(xiàn)的生物學(xué)機(jī)制只有少部分使用了計(jì)算神經(jīng)學(xué)的方式進(jìn)行模擬,被用在類腦計(jì)算中的機(jī)制則更加有限。另外,計(jì)算機(jī)仿真工具和數(shù)學(xué)的理論分析仍然不夠完善,類腦計(jì)算沒有形成統(tǒng)一的理論框架,面對(duì)大數(shù)據(jù)時(shí)代還沒辦法取代深度學(xué)習(xí)等成熟算法和工具的地位。在軟件仿真方面,一些小規(guī)模的仿真工具相繼出現(xiàn),在研究類腦計(jì)算機(jī)理方面做出了一定貢獻(xiàn)[10, 11]。由于近年來深度學(xué)習(xí)發(fā)展,同樣有很多工作結(jié)合了深度學(xué)習(xí)相關(guān)概念進(jìn)行了研究和探索[12, 13]。

能耗高一直是傳統(tǒng)神經(jīng)網(wǎng)絡(luò)領(lǐng)域的一個(gè)難以解決的問題,目前只能通過云技術(shù)對(duì)小型便攜設(shè)備和需要單獨(dú)處理任務(wù)的設(shè)備提供快速響應(yīng)的人工智能服務(wù)。而類腦計(jì)算具有更好的硬件親和力,不需要復(fù)雜的硬件進(jìn)行矩陣運(yùn)算,只需在接收到脈沖時(shí)處理脈沖信號(hào),計(jì)算效率得到很大的提高,目前已經(jīng)有一些片上系統(tǒng)的原型出現(xiàn),初步提供了SNN構(gòu)建的人工智能框架[14, 15]。

總之,類腦計(jì)算還有很多工作需要完成,大量的有趣的、未知的和有挑戰(zhàn)的問題需要解決,但這也是類腦研究的魅力所在。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 人工智能
    +關(guān)注

    關(guān)注

    1787

    文章

    46061

    瀏覽量

    235006
  • 神經(jīng)計(jì)算
    +關(guān)注

    關(guān)注

    0

    文章

    12

    瀏覽量

    4122

原文標(biāo)題:綜述AI未來:神經(jīng)科學(xué)啟發(fā)的類腦計(jì)算

文章出處:【微信號(hào):AItists,微信公眾號(hào):人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    指向更快更節(jié)能的下一代人工智能,芯片推動(dòng)強(qiáng)智能應(yīng)用落地

    中看到的那種智能化程度相去甚遠(yuǎn)。目前的人工智能基于大量的數(shù)據(jù)訓(xùn)練給出更為準(zhǔn)確的回答,但不是智能地思考。 技術(shù)正是為了解決
    的頭像 發(fā)表于 11-19 06:21 ?3426次閱讀
    指向更快更節(jié)能的下一代<b class='flag-5'>人工智能</b>,<b class='flag-5'>類</b><b class='flag-5'>腦</b>芯片推動(dòng)強(qiáng)<b class='flag-5'>智能</b>應(yīng)用落地

    【書籍評(píng)測(cè)活動(dòng)NO.44】AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新

    《AI for Science:人工智能驅(qū)動(dòng)科學(xué)創(chuàng)新》 這本書便將為讀者徐徐展開AI for Science的美麗圖景,與大家一起去了解: 人工智能究竟幫科學(xué)家做了什么?
    發(fā)表于 09-09 13:54

    報(bào)名開啟!深圳(國(guó)際)通用人工智能大會(huì)將啟幕,國(guó)內(nèi)外大咖齊聚話AI

    8月28日至30日,2024深圳(國(guó)際)通用人工智能大會(huì)暨深圳(國(guó)際)通用人工智能產(chǎn)業(yè)博覽會(huì)將在深圳國(guó)際會(huì)展中心(寶安)舉辦。大會(huì)以“魅力AI·無限未來”為主題,致力于打造全球通用人工智能
    發(fā)表于 08-22 15:00

    FPGA在人工智能中的應(yīng)用有哪些?

    定制化的硬件設(shè)計(jì),提高了硬件的靈活性和適應(yīng)性。 綜上所述,F(xiàn)PGA在人工智能領(lǐng)域的應(yīng)用前景廣闊,不僅可以用于深度學(xué)習(xí)的加速和云計(jì)算的加速,還可以針對(duì)特定應(yīng)用場(chǎng)景進(jìn)行定制化計(jì)算,為人工智能
    發(fā)表于 07-29 17:05

    SynSense時(shí)識(shí)科技成功收購瑞士視覺傳感器公司iniVation,智能航母蓄勢(shì)待發(fā)

    SynSense時(shí)識(shí)科技今日宣布 成功收購瑞士視覺傳感器公司iniVation 100%股權(quán) 。隨著交割完成,SynSense時(shí)識(shí)科技成為全球首個(gè)同時(shí)擁有
    發(fā)表于 07-19 18:00 ?304次閱讀
    SynSense時(shí)識(shí)科技成功收購瑞士<b class='flag-5'>類</b><b class='flag-5'>腦</b>視覺傳感器公司iniVation,<b class='flag-5'>類</b><b class='flag-5'>腦</b><b class='flag-5'>智能</b>航母蓄勢(shì)待發(fā)

    人工智能神經(jīng)元的基本結(jié)構(gòu)

    人工智能神經(jīng)元的基本結(jié)構(gòu)是一個(gè)復(fù)雜而深入的話題,涉及到計(jì)算機(jī)科學(xué)、數(shù)學(xué)、神經(jīng)科學(xué)等多個(gè)領(lǐng)域的知識(shí)。 引言 人工智能(Artificial I
    的頭像 發(fā)表于 07-11 11:19 ?456次閱讀

    人工智能人工神經(jīng)網(wǎng)絡(luò)有什么區(qū)別

    人工智能是一門研究如何使計(jì)算機(jī)模擬人類智能行為的學(xué)科。它起源于20世紀(jì)40年代,當(dāng)時(shí)計(jì)算機(jī)科學(xué)家們開始嘗試開發(fā)能夠模擬人類思維過程的
    的頭像 發(fā)表于 07-04 09:39 ?303次閱讀

    基于FPGA的計(jì)算平臺(tái) —PYNQ 集群的無監(jiān)督圖像識(shí)別計(jì)算系統(tǒng)

    硬件平臺(tái) 第一部分 設(shè)計(jì)概述 基金項(xiàng)目:國(guó)家自然科學(xué)基金“基于工作負(fù)載表征的體系結(jié)構(gòu)基準(zhǔn)測(cè)試模型與自動(dòng)映射方法研究”(61972180);數(shù)學(xué)工程與先進(jìn)計(jì)算國(guó)家重點(diǎn)
    發(fā)表于 06-25 18:35

    基于1024通道柔性微絲電極的“北二號(hào)”智能機(jī)接口系統(tǒng)正式發(fā)布

    4月25日上午,2024中關(guān)村論壇正式開幕,北京腦科學(xué)研究所(“北京所”)通過論壇發(fā)布機(jī)接口、基因治療、研究技術(shù)等一系列最新研究成
    的頭像 發(fā)表于 04-29 11:10 ?589次閱讀

    機(jī)器學(xué)習(xí)怎么進(jìn)入人工智能

    人工智能(Artificial Intelligence,AI)是一門涉及計(jì)算機(jī)、工程、數(shù)學(xué)、哲學(xué)和認(rèn)知科學(xué)等多個(gè)領(lǐng)域的交叉學(xué)科,旨在構(gòu)建智能計(jì)算
    的頭像 發(fā)表于 04-04 08:41 ?148次閱讀

    IBM芯片NorthPole實(shí)現(xiàn)快速高效的人工智能

    來源:《半導(dǎo)體芯科技》雜志文章 美國(guó)IBM公司最新推出一款芯片-NorthPole,將220億個(gè)晶體管封裝在僅800平方毫米的面積內(nèi)。這款芯片將其計(jì)算模塊與存儲(chǔ)信息的模塊交織在一起,允許每個(gè)
    的頭像 發(fā)表于 03-05 16:58 ?388次閱讀

    嵌入式人工智能的就業(yè)方向有哪些?

    嵌入式人工智能的就業(yè)方向有哪些? 在新一輪科技革命與產(chǎn)業(yè)變革的時(shí)代背景下,嵌入式人工智能成為國(guó)家新型基礎(chǔ)建設(shè)與傳統(tǒng)產(chǎn)業(yè)升級(jí)的核心驅(qū)動(dòng)力。同時(shí)在此背景驅(qū)動(dòng)下,眾多名企也紛紛在嵌入式人工智能領(lǐng)域布局
    發(fā)表于 02-26 10:17

    NVIDIA 人工智能開講 | 什么是 AI For Science?詳解 AI 助力科學(xué)研究領(lǐng)域的新突破

    ”兩大音頻 APP上搜索“ NVIDIA 人工智能開講 ”專輯,眾多技術(shù)大咖帶你深度剖析核心技術(shù),把脈未來科技發(fā)展方向! AI For Science (亦稱 “AI In Science” ),是人工智能領(lǐng)域的一大熱門話題,
    的頭像 發(fā)表于 12-25 18:30 ?809次閱讀
    NVIDIA <b class='flag-5'>人工智能</b>開講 | 什么是 AI For Science?詳解 AI 助力<b class='flag-5'>科學(xué)</b>研究領(lǐng)域的新突破

    北京人工智能公共算力平臺(tái)點(diǎn)亮,元生態(tài)共建計(jì)劃在AICC大會(huì)簽約

    11月29日,以"智算力就是創(chuàng)新力"為主題的2023人工智能計(jì)算大會(huì)(AICC)在北京召開。 會(huì)上舉行了北京人工智能公共算力平臺(tái)點(diǎn)亮儀式,同時(shí)21家北京市人工智能企業(yè)共同簽署"共建
    的頭像 發(fā)表于 12-05 13:24 ?619次閱讀

    人工智能的起源、發(fā)展和未來趨勢(shì)

    人工智能是研究使計(jì)算機(jī)來模擬人的某些思維過程和智能行為(如學(xué)習(xí)、推理、思考、規(guī)劃等)的學(xué)科,主要包括計(jì)算機(jī)實(shí)現(xiàn)智能的原理、制造類似于人腦
    發(fā)表于 10-10 10:10 ?967次閱讀
    <b class='flag-5'>人工智能</b>的起源、發(fā)展和<b class='flag-5'>未來</b>趨勢(shì)