0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

討論深度神經(jīng)網(wǎng)絡(luò)、AI研究從大腦得到的啟發(fā)

DPVg_AI_era ? 來源:lq ? 2019-05-13 09:11 ? 次閱讀

深度學(xué)習(xí)教父、圖靈獎得主Geoffrey Hinton今天在谷歌I/O大會的“爐邊聊天”上發(fā)表演講,討論了深度神經(jīng)網(wǎng)絡(luò)、AI研究從大腦得到的啟發(fā),以及真正理解大腦將如何改變許多領(lǐng)域。

最新一屆圖靈獎得主、多倫多大學(xué)教授兼谷歌大腦高級研究員 Geoffrey Hinton 今天在谷歌 I/O 開發(fā)者大會的爐邊聊天上發(fā)表了演講。

Hinton 討論了神經(jīng)網(wǎng)絡(luò)的起源 —— 模擬生物神經(jīng)元的數(shù)學(xué)函數(shù)層,以及 AI 有朝一日能夠像人類一樣進行推理的可行性和意義。

Hinton 被稱為 “人工智能教父”。過去 30 年里,Hinton 一直致力于解決 AI 面臨的一些最大的挑戰(zhàn)。除了在機器學(xué)習(xí)方面的開創(chuàng)性工作,Hinton 還撰寫 (或與他人合作撰寫) 了 200 多篇 AI 論文,包括 1986 年發(fā)表的一篇開創(chuàng)性的機器學(xué)習(xí)技術(shù)論文 —— 反向傳播。

Hinton 推廣了深度神經(jīng)網(wǎng)絡(luò)這一概念,即以反向傳播為基礎(chǔ)的 AI 模型,其中包含相互連接的層,傳輸 “信號” 并調(diào)整連接的突觸強度 (權(quán)重)。通過這種方式,神經(jīng)網(wǎng)絡(luò)可以從輸入數(shù)據(jù)中提取特征,并學(xué)會做出預(yù)測。

你只需要注意力機制!深度神經(jīng)網(wǎng)絡(luò)優(yōu)化始于Transformers

深度神經(jīng)網(wǎng)絡(luò)得到大幅優(yōu)化是在兩年前,谷歌的研究人員發(fā)表一篇名為 “Attention Is all You Need” 的論文,提出名為 Transformers 的神經(jīng)網(wǎng)絡(luò)架構(gòu)。

Transformers 拋棄了傳統(tǒng)的 RNN/CNN 結(jié)構(gòu),從自然語言本身的特性出發(fā),實現(xiàn)了完全基于注意力機制的 Transformer 機器翻譯網(wǎng)絡(luò)架構(gòu)。

得益于動態(tài)計算權(quán)重的注意力機制,Transformers 在語言翻譯任務(wù)中勝過了此前最先進的模型,同時大幅減少了訓(xùn)練所需的計算量。

Hinton 承認,創(chuàng)新的速度甚至讓他自己都感到驚訝。他說:“2012 年時,我沒有想到僅僅 5 年之后,我們就能夠使用相同的技術(shù)在多種語言之間進行翻譯?!?/p>

盡管如此,Hinton 認為目前的 AI 和機器學(xué)習(xí)方法仍然存在局限性。他指出,大多數(shù)計算機視覺模型缺少反饋機制 —— 也就是說,它們不會嘗試從更高層次的表示中重建數(shù)據(jù)。相反,它們試圖通過改變權(quán)重來區(qū)別性地學(xué)習(xí)特性。

Hinton 說:“它們并沒有在每一層的特征檢測器上檢查是否能夠重建下面的數(shù)據(jù)?!?/p>

AI系統(tǒng)主要是無監(jiān)督的,Hinton團隊轉(zhuǎn)向人類大腦啟發(fā)

Hinton 和同事們最近開始轉(zhuǎn)向人類視覺皮層尋找啟發(fā)。Hinton 說,人類的視覺采用一種重建的方法來學(xué)習(xí),事實證明,計算機視覺系統(tǒng)中的重建技術(shù)增強了它們抵抗對抗性攻擊的能力。

“腦科學(xué)家們都同意這樣的觀點,即如果你的大腦皮層有兩個區(qū)域處于感知通路 (perceptual pathway) 中,并且一個區(qū)域與另一個區(qū)域之間存在連接,那么總會有一個反向的通路。”Hinton 說。

需要說明的是,Hinton 認為神經(jīng)科學(xué)家可以從 AI 研究人員那里學(xué)到很多東西。他認為未來的 AI 系統(tǒng)將主要是無監(jiān)督的。無監(jiān)督學(xué)習(xí)是機器學(xué)習(xí)的一個分支,可以從未標記、未分類的測試數(shù)據(jù)中提取知識 —— 在學(xué)習(xí)共性和對共性是否存在做出反應(yīng)的能力方面,無監(jiān)督學(xué)習(xí)的能力幾乎達到人類水平。

Hinton 說:“如果你采用一個擁有數(shù)十億參數(shù)的系統(tǒng),對某個目標函數(shù)執(zhí)行隨機梯度下降,它的效果會比你想象的好得多…… 規(guī)模越大,效果越好?!?/p>

“這使得一種說法變得更加合理,即大腦計算某些目標函數(shù)的梯度,并根據(jù)梯度更新突觸的強度。我們只需要弄清楚它是如何得到梯度的,以及目標函數(shù)是什么?!?/p>

這甚至可能解開夢的奧秘?!盀槭裁次覀兏静挥浀梦覀冏鲞^的夢呢?”Hinton 反問道。

他認為這可能與 “忘卻”(unlearning) 有關(guān),他在與人合著的一篇關(guān)于玻爾茲曼機的論文中解釋了這一理論。玻爾茲曼機是由對稱連接的、類似神經(jīng)元的單元組成的網(wǎng)絡(luò),可以隨機決定是 “on” 還是 “off”。Hinton 說,“它們發(fā)現(xiàn)…… 觀察到的數(shù)據(jù)不那么令人驚訝”。

Hinton 說:“夢的意義可能在于,你把整個學(xué)習(xí)過程顛倒過來了?!?/p>

未來需要真正理解大腦的運作方式

Hinton 相信,這些知識可以改變許多領(lǐng)域,比如教育。例如,他預(yù)計教學(xué)課程將考慮人類生物化學(xué),因此會更加個性化,更具針對性。

他說:“人們可能會認為,如果我們真正理解了大腦,我們應(yīng)該能夠改善教育等方面的狀況,我認為這是會實現(xiàn)的?!?/p>

“如果我們最終能夠了解大腦中正在發(fā)生什么,大腦是如何學(xué)習(xí)的,就能適應(yīng)環(huán)境,從而更好地學(xué)習(xí)?!?/p>

但他也警告說,這一切都需要時間。就近期而言,Hinton 設(shè)想了智能助理的未來 —— 比如 Google Assistant 或亞馬遜的 Alexa—— 它們可以與用戶互動,并在日常生活中為用戶提供引導(dǎo)。

Hinton 總結(jié)說:“再過幾年,我不確定我們會學(xué)到多少東西。但如果你仔細觀察,你會發(fā)現(xiàn)智能助理現(xiàn)在已經(jīng)相當(dāng)聰明了。一旦 AI 助理能夠真正理解對話,它們就能和孩子們真正地交談,并提供教育?!?/p>

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴

原文標題:AI教父Hinton:AI 系統(tǒng)將走向無監(jiān)督,我們需要真正理解大腦

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    殘差網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)

    殘差網(wǎng)絡(luò)(Residual Network,通常簡稱為ResNet) 是深度神經(jīng)網(wǎng)絡(luò)的一種 ,其獨特的結(jié)構(gòu)設(shè)計在解決深層網(wǎng)絡(luò)訓(xùn)練中的梯度消失和梯度爆炸問題上取得了顯著的突破,并因此成為
    的頭像 發(fā)表于 07-11 18:13 ?938次閱讀

    pytorch中有神經(jīng)網(wǎng)絡(luò)模型嗎

    處理、語音識別等領(lǐng)域取得了顯著的成果。PyTorch是一個開源的深度學(xué)習(xí)框架,由Facebook的AI研究團隊開發(fā)。它以其易用性、靈活性和高效性而受到廣泛歡迎。在PyTorch中,有許多預(yù)訓(xùn)練的
    的頭像 發(fā)表于 07-11 09:59 ?602次閱讀

    簡單認識深度神經(jīng)網(wǎng)絡(luò)

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)作為機器學(xué)習(xí)領(lǐng)域中的一種重要技術(shù),特別是在深度學(xué)習(xí)領(lǐng)域,已經(jīng)取得了顯著的成就。它們通過模擬人類大腦的處理方式,利用多
    的頭像 發(fā)表于 07-10 18:23 ?894次閱讀

    深度神經(jīng)網(wǎng)絡(luò)概述及其應(yīng)用

    通過模仿人類大腦神經(jīng)元的連接方式和處理機制,設(shè)計多層神經(jīng)元結(jié)構(gòu)來處理復(fù)雜的數(shù)據(jù)模式,從而在各種數(shù)據(jù)驅(qū)動的問題中展現(xiàn)出強大的能力。本文將從深度神經(jīng)網(wǎng)絡(luò)的基本概念、結(jié)構(gòu)、工作原理、關(guān)鍵技術(shù)
    的頭像 發(fā)表于 07-04 16:08 ?644次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指傳統(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時,我們需
    的頭像 發(fā)表于 07-04 13:20 ?572次閱讀

    深度神經(jīng)網(wǎng)絡(luò)的設(shè)計方法

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)作為人工智能領(lǐng)域的重要技術(shù)之一,通過模擬人腦神經(jīng)元之間的連接,實現(xiàn)了對復(fù)雜數(shù)據(jù)的自主學(xué)習(xí)和智能判斷。其設(shè)計方法不僅涉及網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 13:13 ?370次閱讀

    bp神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)是一種常見的前饋神經(jīng)網(wǎng)絡(luò),它使用反向傳播算法來訓(xùn)練網(wǎng)絡(luò)。雖然BP神經(jīng)網(wǎng)絡(luò)在某些方面與
    的頭像 發(fā)表于 07-03 10:14 ?596次閱讀

    深度學(xué)習(xí)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    隨著人工智能技術(shù)的飛速發(fā)展,深度學(xué)習(xí)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network, CNN)作為其中的重要分支,已經(jīng)在多個領(lǐng)域取得了顯著的應(yīng)用成果。圖像識別、語音識別
    的頭像 發(fā)表于 07-02 18:19 ?747次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)的原理是什么

    卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是一種深度學(xué)習(xí)模型,廣泛應(yīng)用于圖像識別、語音識別、自然語言處理等領(lǐng)域。本文將詳細介紹卷積神經(jīng)網(wǎng)絡(luò)的原理,包括其
    的頭像 發(fā)表于 07-02 14:44 ?520次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    化能力。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)已經(jīng)成為人工智能領(lǐng)域的重要技術(shù)之一。卷積神經(jīng)網(wǎng)絡(luò)和BP神經(jīng)
    的頭像 發(fā)表于 07-02 14:24 ?2338次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型cnn的基本概念、結(jié)構(gòu)及原理

    深度神經(jīng)網(wǎng)絡(luò)模型CNN(Convolutional Neural Network)是一種廣泛應(yīng)用于圖像識別、視頻分析和自然語言處理等領(lǐng)域的深度學(xué)習(xí)模型。 引言 深度學(xué)習(xí)是近年來人工智能
    的頭像 發(fā)表于 07-02 10:11 ?9456次閱讀

    深度神經(jīng)網(wǎng)絡(luò)模型有哪些

    深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,DNNs)是一類具有多個隱藏層的神經(jīng)網(wǎng)絡(luò),它們在許多領(lǐng)域取得了顯著的成功,如計算機視覺、自然語言處理、語音識別等。以下是一些常見的深度
    的頭像 發(fā)表于 07-02 10:00 ?1044次閱讀

    利用深度循環(huán)神經(jīng)網(wǎng)絡(luò)對心電圖降噪

    具體的軟硬件實現(xiàn)點擊 http://mcu-ai.com/ MCU-AI技術(shù)網(wǎng)頁_MCU-AI 我們提出了一種利用由長短期記憶 (LSTM) 單元構(gòu)建的深度循環(huán)
    發(fā)表于 05-15 14:42

    利用神經(jīng)網(wǎng)絡(luò)對腦電圖(EEG)降噪

    數(shù)據(jù)與干凈的EEG數(shù)據(jù)構(gòu)成訓(xùn)練數(shù)據(jù),并且分成訓(xùn)練、驗證和測試數(shù)據(jù)集。 繪制有噪聲EEG數(shù)據(jù)與干凈的EEG數(shù)據(jù) 顯然,傳統(tǒng)的任何算法很難將EEG數(shù)據(jù)噪聲中濾出來。 定義神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),之所以選擇長短期記憶
    發(fā)表于 04-30 20:40

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    處理技術(shù)也可以通過深度學(xué)習(xí)來獲得更優(yōu)異的效果,比如去噪、超分辨率和跟蹤算法等。為了跟上時代的步伐,必須對深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)技術(shù)有所學(xué)習(xí)和研究。本文將介紹
    的頭像 發(fā)表于 01-11 10:51 ?1840次閱讀
    詳解<b class='flag-5'>深度</b>學(xué)習(xí)、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用