0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

人工神經(jīng)網(wǎng)絡(luò)和生物神經(jīng)網(wǎng)絡(luò)到底有多像

zhKF_jqr_AI ? 來源:未知 ? 作者:胡薇 ? 2018-11-17 09:30 ? 次閱讀

人工神經(jīng)網(wǎng)絡(luò)機(jī)器學(xué)習(xí)已經(jīng)成為大眾媒體的熱門主題。智能機(jī)器這一想法勾起了很多人的想象,而且人們特別喜歡把它和人類放一起比較。特別是有一個關(guān)于人工智能的底層機(jī)制的基礎(chǔ)問題經(jīng)常出現(xiàn)——這些人工神經(jīng)網(wǎng)絡(luò)的工作方式真的和我們大腦中的神經(jīng)元相似嗎?

Tl;Dr

不。盡管從高層概念上說,ANN(人工神經(jīng)網(wǎng)絡(luò))受到了大腦中的神經(jīng)元和神經(jīng)網(wǎng)絡(luò)的啟發(fā),但這些概念的ML實現(xiàn)和大腦的工作方式大有徑庭。不僅如此,隨著這些年來ML領(lǐng)域的進(jìn)展,新的復(fù)雜想法和技術(shù)的提出(RNN、GAN等)——這一聯(lián)系進(jìn)一步削弱了。

關(guān)鍵相似點

前饋全連接網(wǎng)絡(luò)的高層架構(gòu)和一般原則體現(xiàn)了人工神經(jīng)網(wǎng)絡(luò)和大腦中的神經(jīng)網(wǎng)絡(luò)的相似性。

從高層看,大腦的神經(jīng)元由三部分組成:

樹突(輸入機(jī)制)—— 通過突觸接受輸入的樹狀結(jié)構(gòu)。輸入可能是來自感覺神經(jīng)細(xì)胞的感覺輸入,也可能是來自其他神經(jīng)細(xì)胞的“計算”輸入。單個細(xì)胞可以有多達(dá)10萬輸入(每個來自不同的細(xì)胞)。

胞體(計算機(jī)制)—— 細(xì)胞體收集所有樹突的輸入,并基于這些信號決定是否激活輸出(脈沖)。這是一個概括性的說法,因為有些計算在傳入胞體前就完成了(在樹突結(jié)構(gòu)中編碼)。

軸突(輸出機(jī)制)—— 一旦胞體決定是否激活輸出信號(也就是激活細(xì)胞),軸突負(fù)責(zé)傳輸信號,通過末端的樹狀結(jié)構(gòu)將信號以脈沖連接傳遞給下一層神經(jīng)元的樹突。

類似地,ANN中也有等價的結(jié)構(gòu):

輸入連接—— 每個神經(jīng)元接受一組輸入,或者來自輸入層(等價于感覺輸入),或者來自網(wǎng)絡(luò)中前一層的神經(jīng)元。

線性計算和激活函數(shù)—— 這些“累加”輸入,接著非線性地決定是否激活神經(jīng)元。

輸出連接—— 這些傳遞激活信號至網(wǎng)絡(luò)中下一層的神經(jīng)元。

類似地,卷積神經(jīng)網(wǎng)絡(luò)借鑒了視覺通路。很酷的一件事情是,CNN原本主要借鑒的是架構(gòu)(對應(yīng)特定形狀或模式的較小的核/過濾器,每次應(yīng)用于較小的區(qū)域)。然而,多年之后,當(dāng)ML研究人員開發(fā)了新的可視化CNN隱藏層的技術(shù)后,人們發(fā)現(xiàn)CNN表示圖像的方式和視皮層的層次表示十分類似——從表示簡單模式的第一層開始,較深的層復(fù)合出復(fù)雜形狀和對象。

可塑性—— 大腦的獨特性質(zhì)之一,學(xué)習(xí)和記憶得以成立的關(guān)鍵特性。大腦基于經(jīng)歷創(chuàng)建新的脈沖連接,廢棄舊的脈沖連接,加強(qiáng)或削弱現(xiàn)有的連接??伤苄陨踔猎趩蝹€神經(jīng)元中起作用——影響它的電磁行為,以及對特定輸入作出回應(yīng)觸發(fā)激活的趨向。

可塑性這一想法是訓(xùn)練ANN的關(guān)鍵原則——基于批次輸入迭代修改網(wǎng)絡(luò)參數(shù)(權(quán)重)。最近,元學(xué)習(xí)領(lǐng)域的進(jìn)展將ANN中可塑性的應(yīng)用范圍從參數(shù)拓展到超參數(shù)乃至整個模型。

關(guān)鍵區(qū)別

大腦神經(jīng)元的復(fù)雜性和魯棒性要比人工神經(jīng)元復(fù)雜強(qiáng)大得多。這不僅體現(xiàn)在神經(jīng)元的數(shù)量及每個神經(jīng)元的樹突數(shù)量上——比我們現(xiàn)在的ANN高出若干數(shù)量級,還體現(xiàn)在單個神經(jīng)元的內(nèi)部復(fù)雜性上:和人工神經(jīng)元相比,神經(jīng)元的化學(xué)和電學(xué)機(jī)制精細(xì)得多,也強(qiáng)健得多。例如,神經(jīng)元不是零電位差的——細(xì)胞的不同區(qū)域可能具有不同的電位,有不同的電流通過。這讓單個神經(jīng)元可以進(jìn)行非線性運(yùn)算,識別隨著時間發(fā)生的變動(例如,移動的目標(biāo)),或者將不同的區(qū)域并行映射至不同的樹突區(qū)域——這樣整個細(xì)胞就可以完成復(fù)雜的復(fù)合任務(wù)。和非常簡單的人造神經(jīng)元相比,這些都是高級很多的結(jié)構(gòu)和能力。

實現(xiàn)—— 大腦中的神經(jīng)元是以非常復(fù)雜和精細(xì)的機(jī)制實現(xiàn)的,可以進(jìn)行非常復(fù)雜的非線性計算:

信號在神經(jīng)元突觸間隙中的化學(xué)傳播,是通過神經(jīng)遞質(zhì)和感受器完成的,并由各種興奮和抑制元素放大。

基于復(fù)雜的時空電磁波推斷邏輯,興奮/抑制性突觸后電位構(gòu)建了動作電位。

離子通道和微電位差控制脈沖的觸發(fā),細(xì)胞體中的脈沖將沿著軸突傳播。

大量我們尚未理解的機(jī)制……

和這些相比,ANN中使用的參數(shù)、權(quán)重、線性函數(shù)、激活函數(shù)十分簡單粗暴。

在此之上,大腦中的神經(jīng)元的整體架構(gòu)要比大多數(shù)ANN復(fù)雜得多,特別是和常見的前饋網(wǎng)絡(luò)相比(前饋網(wǎng)絡(luò)的每一層只和前一層、后一層連接)。不過,即使是和多層RNN或者殘差網(wǎng)絡(luò)相比,大腦中的神經(jīng)元網(wǎng)絡(luò)也是不可思議地復(fù)雜,在許多方向上有著數(shù)萬跨“層”、跨區(qū)域的樹突。

另一方面,大腦不太可能使用反向傳播這樣的方法——基于誤差函數(shù)的偏導(dǎo)數(shù)上的鏈?zhǔn)椒▌t。

能源消耗—— 大腦是一個極端高效的計算機(jī),差不多十瓦左右,約為單個CPU能耗的三分之一。

GAN、RL、RNN等新進(jìn)展—— 在ML的理論和應(yīng)用上,都不斷涌現(xiàn)新的想法和創(chuàng)新。這些都不再基于大腦的工作機(jī)制。它們也許受到了大腦的啟發(fā),或者人類行為的啟發(fā),但在許多方面,現(xiàn)在的ML方面的研究和工作過著屬于自己的生活——迎接自身的挑戰(zhàn),追尋自身的機(jī)遇。

大腦是持續(xù)的靈感來源

盡管有上面列出的這些不同,ML研究仍然不斷將大腦列為靈感來源,因為大腦比我們現(xiàn)有的計算設(shè)備要強(qiáng)健和高效太多。認(rèn)識人工神經(jīng)網(wǎng)絡(luò)和大腦的差距,以及關(guān)于大腦機(jī)制的研究,激發(fā)了一些最激動人心也最具挑戰(zhàn)性的ML近期研究。例如:

能效—— 如前所述,大腦的神經(jīng)元和連接數(shù)量比我們創(chuàng)建的任何ANN都要大上若干數(shù)量級,但它消耗的能量卻要少若干數(shù)量級。這是一個很活躍的研究領(lǐng)域,包括基于DNA和其他分子的生物網(wǎng)絡(luò),以及試圖模仿神經(jīng)元和突觸的神經(jīng)形態(tài)(neuromorphic)電子開關(guān)。

從很小的訓(xùn)練樣本集學(xué)習(xí)—— 最有可能是通過一些內(nèi)置的模型,這些模型對物理法則、心理學(xué)、因果關(guān)系和其他決定地球上的決策和行動的規(guī)則有一些“直覺上的”理解。和現(xiàn)有的通用白板神經(jīng)網(wǎng)絡(luò)相比,這些加速了學(xué)習(xí),并能指導(dǎo)預(yù)測/行動。

釋放無監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的威力—— 無監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)是AI的“暗能量”。物理上,暗能量占據(jù)了我們的宇宙的大部分,而我們對其知之甚少。與此類似,很明顯我們的大腦主要通過無監(jiān)督學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的方式進(jìn)行學(xué)習(xí)。而當(dāng)前的大部分ML應(yīng)用使用監(jiān)督學(xué)習(xí)。解開這一謎題是構(gòu)建能像人類一樣學(xué)習(xí)的機(jī)器的關(guān)鍵。

新的方法和架構(gòu)。例如,嗅覺背后的神經(jīng)系統(tǒng),可以為新的ML方法提供靈感,處理現(xiàn)有方法無法很好應(yīng)對的一些問題。

最后,這當(dāng)然不可能是一個全面的答案,明顯還有很多我沒提到的相似性和區(qū)別。例如,來自多倫多的Blake Richards做了一個很棒的簡短演講:從一個新穎獨特的角度陳述了大腦和深度學(xué)習(xí)在原則上的相似性。事實上,這一問題是我們的時代最激動人心、最復(fù)雜、進(jìn)展最快的兩個研究領(lǐng)域的交匯之處,所以你可以期望在未來我們會了解更多。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標(biāo)題:人工神經(jīng)網(wǎng)絡(luò)真的像神經(jīng)元一樣工作嗎?

文章出處:【微信號:jqr_AI,微信公眾號:論智】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    BP神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種在人工智能和機(jī)器學(xué)習(xí)領(lǐng)域
    的頭像 發(fā)表于 07-10 15:24 ?1060次閱讀

    BP神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及
    的頭像 發(fā)表于 07-10 15:20 ?720次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的案例分析

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)作為深度學(xué)習(xí)領(lǐng)域的重要分支,自20世紀(jì)80年代以來一直是人工智能領(lǐng)域的研究熱點。其靈感來源于生物
    的頭像 發(fā)表于 07-08 18:20 ?644次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?463次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的工作原理及應(yīng)用

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks, ANNs)是一種受到生物神經(jīng)網(wǎng)絡(luò)啟發(fā)的計算模型,用于模擬人腦處理信息的方式。它們在許多領(lǐng)域都有廣泛的應(yīng)用,包括圖像
    的頭像 發(fā)表于 07-05 09:25 ?524次閱讀

    人工神經(jīng)網(wǎng)絡(luò)模型包含哪些層次

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network,ANN)是一種模擬人腦神經(jīng)網(wǎng)絡(luò)的計算模型,具有自適應(yīng)、自學(xué)習(xí)、泛化能力強(qiáng)等特點。本文將詳細(xì)介紹人工
    的頭像 發(fā)表于 07-05 09:17 ?464次閱讀

    人工神經(jīng)網(wǎng)絡(luò)模型的分類哪些

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks, ANNs)是一種模擬人腦神經(jīng)元網(wǎng)絡(luò)的計算模型,它在許多領(lǐng)域,如圖像識別、語音識別、自然語言處理、預(yù)測分析等有著廣泛的應(yīng)用。本文將
    的頭像 發(fā)表于 07-05 09:13 ?856次閱讀

    遞歸神經(jīng)網(wǎng)絡(luò)是循環(huán)神經(jīng)網(wǎng)絡(luò)

    遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,簡稱RNN)實際上是同一個概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?596次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    反向傳播神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network,簡稱BP神經(jīng)網(wǎng)絡(luò))是一種多層前饋神經(jīng)網(wǎng)絡(luò),它通過反向傳播算法來調(diào)整網(wǎng)絡(luò)中的權(quán)重和偏置,以達(dá)到最小化誤差的
    的頭像 發(fā)表于 07-03 11:00 ?603次閱讀

    神經(jīng)網(wǎng)絡(luò)人工智能的關(guān)系是什么

    神經(jīng)網(wǎng)絡(luò)人工智能的關(guān)系是密不可分的。神經(jīng)網(wǎng)絡(luò)人工智能的一種重要實現(xiàn)方式,而人工智能則是神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 10:25 ?886次閱讀

    bp神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)區(qū)別是什么

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種不同類型的人工神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 10:12 ?883次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    化能力。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)已經(jīng)成為人工智能領(lǐng)域的重要技術(shù)之一。卷積神經(jīng)網(wǎng)絡(luò)和BP神經(jīng)
    的頭像 發(fā)表于 07-02 14:24 ?2334次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的含義和用途是

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)是一種受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)而構(gòu)建的數(shù)學(xué)模型,它通過模擬人腦神經(jīng)
    的頭像 發(fā)表于 07-02 10:07 ?591次閱讀

    人工神經(jīng)網(wǎng)絡(luò)的模型及其應(yīng)用哪些

    人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,ANNs)是一種受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)的計算模型,它通過模擬人腦神經(jīng)元的連接
    的頭像 發(fā)表于 07-02 10:04 ?754次閱讀

    神經(jīng)網(wǎng)絡(luò)架構(gòu)哪些

    神經(jīng)網(wǎng)絡(luò)架構(gòu)是機(jī)器學(xué)習(xí)領(lǐng)域中的核心組成部分,它們模仿了生物神經(jīng)網(wǎng)絡(luò)的運(yùn)作方式,通過復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)實現(xiàn)信息的處理、存儲和傳遞。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,各種
    的頭像 發(fā)表于 07-01 14:16 ?556次閱讀