0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

未來智能實驗室的開展,用于運行神經(jīng)網(wǎng)絡(luò)的新的芯片的研究

mK5P_AItists ? 來源:未知 ? 作者:工程師郭婷 ? 2018-06-29 13:59 ? 次閱讀

GPU上運行的神經(jīng)網(wǎng)絡(luò)已經(jīng)在人工智能領(lǐng)域取得了一些驚人的進步,但這兩者的合作還并不完美。IBM的研究人員希望能設(shè)計出一種專門用于運行神經(jīng)網(wǎng)絡(luò)的新的芯片,從而提供更快、更有效的替代方案。

直到本世紀初,研究人員才意識到,為視頻游戲設(shè)計的GPU(圖形處理單元)可以被用作硬件加速器,以運行比以前更大的神經(jīng)網(wǎng)絡(luò)。

這要歸功于這些芯片能夠并行進行大量計算,而不是像傳統(tǒng)CPU那樣按順序處理它們。這對于同時計算構(gòu)成深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的數(shù)百個神經(jīng)元的權(quán)重特別有用。

GPU的引入使這一領(lǐng)域得到了發(fā)展,但這些芯片仍然需要將處理和存儲分開,這意味著大量的時間和精力都花在了兩者之間的數(shù)據(jù)傳輸上。這促使人們開始研究新的存儲技術(shù),這些技術(shù)能夠存儲和處理同一位置的權(quán)重數(shù)據(jù),從而提高速度和能源效率。

這種新的存儲設(shè)備通過調(diào)整它們的電阻水平,以模擬的形式存儲數(shù)據(jù)——也就是說,數(shù)據(jù)被存儲在一個連續(xù)的范圍內(nèi),而不是數(shù)字存儲器的二進制1和0。因為信息存儲在存儲單元的電導(dǎo)中,所以可以簡單地在存儲單元間傳遞電壓并讓系統(tǒng)通過物理方法來進行計算。

但是這些設(shè)備固有的物理缺陷意味著它們的行為并不一致,這導(dǎo)致了目前使用它們來訓(xùn)練神經(jīng)網(wǎng)絡(luò)的分類精度明顯低于使用GPU。

“我們可以在一個比GPU更快的系統(tǒng)上進行訓(xùn)練,但如果訓(xùn)練操作不那么準確,那是沒有用的,”領(lǐng)導(dǎo)該項目的IBM Research博士后研究員Stefano Ambrogio在接受Singularity Hub采訪時說,“到目前為止,還沒有證據(jù)表明使用這些新設(shè)備能像使用GPU一樣精確?!?/p>

但研究又有了新的進展。發(fā)表在《自然》雜志上的一篇論文中,Ambrogio和他的同事們描述了他們是如何利用新興的模擬記憶和更傳統(tǒng)的電子元件組合來創(chuàng)造出一種芯片,這種芯片可以與GPU的精度相匹配,同時運行速度更快,能耗更少。

這些新的存儲技術(shù)難以訓(xùn)練深層神經(jīng)網(wǎng)絡(luò)的原因是,這個過程需要將每個神經(jīng)元的權(quán)重進行上下數(shù)千次的刺激,直到網(wǎng)絡(luò)完全對齊。改變這些設(shè)備的電阻需要重新配置它們的原子結(jié)構(gòu),而且每次的操作過程都不一樣,Ambrogio說。這些刺激并不總是完全相同,這導(dǎo)致了對神經(jīng)元權(quán)重的不精確的調(diào)整。

研究人員通過創(chuàng)造“突觸單元”來解決這個問題,這些“突觸單元”每一個都對應(yīng)于網(wǎng)絡(luò)中的單個神經(jīng)元,同時具有長期和短期記憶。每個單元格由一對相變存儲器(PCM)單元和三個晶體管以及一個電容的組合構(gòu)成,PCM在電阻中存儲權(quán)重數(shù)據(jù),電容將權(quán)重數(shù)據(jù)存儲為電荷。

PCM是一種“非易失性存儲器”,這意味著即使沒有外部電源,它也能保留存儲的信息,而電容器是“易失性的”,所以只能在幾毫秒內(nèi)保持它的電荷。但是電容器沒有PCM設(shè)備的可變性,因此可以快速而準確地編程

當神經(jīng)網(wǎng)絡(luò)對圖像進行訓(xùn)練以完成分類任務(wù)時,只有電容器的權(quán)重會被更新。在瀏覽到幾千張圖片后,權(quán)重數(shù)據(jù)會被轉(zhuǎn)移到PCM單元進行長期存儲。PCM的可變性意味著,權(quán)重數(shù)據(jù)的轉(zhuǎn)移仍然有可能包含錯誤,但是由于該單元只是偶爾更新,所以可以在不增加系統(tǒng)復(fù)雜性的情況下再次檢查電導(dǎo)。Ambrogio說,如果直接在PCM單元上進行訓(xùn)練,這就不可行了。

為了測試他們的設(shè)備,研究人員對他們的網(wǎng)絡(luò)進行了一系列流行圖像識別的基準測試,結(jié)果達到了與谷歌領(lǐng)先的神經(jīng)網(wǎng)絡(luò)軟件TensorFlow相當?shù)木_度。但重要的是,他們預(yù)測,最終構(gòu)建出的芯片將比GPU的能效高280倍,而且在每平方毫米面積上實現(xiàn)的算力將達到CPU的100倍。值得注意的是,研究人員還沒有完全構(gòu)建出這一芯片。

雖然在測試中使用了真正的PCM單元,但其它組件是在計算機上模擬的。Ambrogio表示,他們希望在投入時間和精力打造完整的芯片之前,先檢查一下這種方法是否可行。他說,他們決定使用真正的PCM設(shè)備,因為對這些設(shè)備的模擬還不太可靠,但其它組件的模擬技術(shù)已經(jīng)很成熟了,他們有信心基于這個設(shè)計建立一個完整的芯片。

它目前也只能在全連接神經(jīng)網(wǎng)絡(luò)上與GPU競爭,在這個神經(jīng)網(wǎng)絡(luò)中,每個神經(jīng)元都與上一層的神經(jīng)元相連接,Ambrogio說。但實際上許多神經(jīng)網(wǎng)絡(luò)并沒有完全連接,或者只有某些層完全連接在一起。

但Ambrogio說,最終的芯片將被設(shè)計成可以與GPU合作的形式,從而在處理其它連接時也能夠處理全連接層的計算。他還認為,這種處理全連接層的更有效的方法可以被更廣泛地應(yīng)用。

這樣的專用芯片能夠使哪些事情成為可能?

Ambrogio說,有兩個主要的應(yīng)用:一是將人工智能應(yīng)用到個人設(shè)備上,二是使數(shù)據(jù)中心更加高效。后者是大型科技公司的一大擔憂,因為它們的服務(wù)器消耗了大量的電費。

如果直接在個人設(shè)備上應(yīng)用人工智能,用戶就可以不必在云端分享他們的數(shù)據(jù),從而增加隱私性,但Ambrogio說,更令人興奮的前景是人工智能的個性化。

他說:“在你的汽車或智能手機上應(yīng)用這個神經(jīng)網(wǎng)絡(luò),它們就能夠不斷地從你的經(jīng)驗中學(xué)習(xí)。”

“你的手機會專門針對你的聲音進行個性化,你的汽車也會根據(jù)你的習(xí)慣形成獨特的駕駛方式。”

未來智能實驗室是人工智能學(xué)家與科學(xué)院相關(guān)機構(gòu)聯(lián)合成立的人工智能,互聯(lián)網(wǎng)和腦科學(xué)交叉研究機構(gòu)。

未來智能實驗室的主要工作包括:建立AI智能系統(tǒng)智商評測體系,開展世界人工智能智商評測;開展互聯(lián)網(wǎng)(城市)云腦研究計劃,構(gòu)建互聯(lián)網(wǎng)(城市)云腦技術(shù)和企業(yè)圖譜,為提升企業(yè),行業(yè)與城市的智能水平服務(wù)。


聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • cpu
    cpu
    +關(guān)注

    關(guān)注

    68

    文章

    10702

    瀏覽量

    209417
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4717

    瀏覽量

    100018
  • 人工智能
    +關(guān)注

    關(guān)注

    1787

    文章

    46061

    瀏覽量

    235066

原文標題:讓AI個性化而且功耗更低 IBM研發(fā)新型神經(jīng)網(wǎng)絡(luò)芯片

文章出處:【微信號:AItists,微信公眾號:人工智能學(xué)家】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    BP神經(jīng)網(wǎng)絡(luò)樣本的獲取方法

    的訓(xùn)練樣本是至關(guān)重要的。 數(shù)據(jù)收集 數(shù)據(jù)收集是構(gòu)建BP神經(jīng)網(wǎng)絡(luò)模型的第一步。根據(jù)研究領(lǐng)域和應(yīng)用場景的不同,數(shù)據(jù)來源可以分為以下幾種: 1.1 實驗數(shù)據(jù):通過實驗或觀察獲得的數(shù)據(jù),如生物
    的頭像 發(fā)表于 07-11 10:50 ?213次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和卷積神經(jīng)網(wǎng)絡(luò)的關(guān)系

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network)和卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,簡稱CNN)是兩種在人工智能和機器學(xué)習(xí)領(lǐng)域
    的頭像 發(fā)表于 07-10 15:24 ?585次閱讀

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)的區(qū)別

    BP神經(jīng)網(wǎng)絡(luò)和人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,簡稱ANNs)之間的關(guān)系與區(qū)別,是神經(jīng)網(wǎng)絡(luò)領(lǐng)域中一個基礎(chǔ)且重要的話題。本文將從定義、結(jié)構(gòu)、算法、應(yīng)用及未來
    的頭像 發(fā)表于 07-10 15:20 ?388次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡(luò)還是循環(huán)神經(jīng)網(wǎng)絡(luò)

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡(luò),而非遞歸神經(jīng)網(wǎng)絡(luò)。循環(huán)神經(jīng)網(wǎng)絡(luò)是一種具有時間序列特性的神經(jīng)網(wǎng)絡(luò),能夠處理序列數(shù)據(jù),具有記憶功能。以下是關(guān)于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?385次閱讀

    人工智能神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)是什么

    人工智能神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)網(wǎng)絡(luò)的計算模型,其結(jié)構(gòu)和功能非常復(fù)雜。 引言 人工智能神經(jīng)網(wǎng)絡(luò)是一種模擬人腦
    的頭像 發(fā)表于 07-04 09:37 ?275次閱讀

    人工智能神經(jīng)網(wǎng)絡(luò)芯片的介紹

    人工智能神經(jīng)網(wǎng)絡(luò)芯片是一類專門為深度學(xué)習(xí)和神經(jīng)網(wǎng)絡(luò)算法設(shè)計的處理器。它們具有高性能、低功耗、可擴展等特點,廣泛應(yīng)用于圖像識別、語音識別、自然
    的頭像 發(fā)表于 07-04 09:33 ?337次閱讀

    神經(jīng)網(wǎng)絡(luò)芯片與傳統(tǒng)芯片的區(qū)別和聯(lián)系

    引言 隨著人工智能技術(shù)的快速發(fā)展,深度學(xué)習(xí)算法在圖像識別、自然語言處理、語音識別等領(lǐng)域取得了顯著的成果。然而,深度學(xué)習(xí)算法對計算資源的需求非常高,傳統(tǒng)的計算芯片已經(jīng)無法滿足其需求。因此,神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 09:31 ?378次閱讀

    神經(jīng)網(wǎng)絡(luò)芯片和普通芯片區(qū)別

    神經(jīng)網(wǎng)絡(luò)芯片和普通芯片的區(qū)別是一個復(fù)雜而深入的話題,涉及到計算機科學(xué)、電子工程、人工智能等多個領(lǐng)域。 定義 神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-04 09:30 ?523次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)在許多領(lǐng)域都有廣泛的應(yīng)用,如語音識別、圖像識別、自然語言處理等。然而,BP神經(jīng)網(wǎng)絡(luò)也存在一些問題,如容易陷入局部最優(yōu)解、訓(xùn)練時間長、對初始權(quán)重敏感等。為了解決這些問題,研究者們提出了一些改進的BP
    的頭像 發(fā)表于 07-03 11:00 ?371次閱讀

    神經(jīng)網(wǎng)絡(luò)和人工智能的關(guān)系是什么

    神經(jīng)網(wǎng)絡(luò)和人工智能的關(guān)系是密不可分的。神經(jīng)網(wǎng)絡(luò)是人工智能的一種重要實現(xiàn)方式,而人工智能則是神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-03 10:25 ?472次閱讀

    bp神經(jīng)網(wǎng)絡(luò)是深度神經(jīng)網(wǎng)絡(luò)

    Network)有相似之處,但它們之間還是存在一些關(guān)鍵的區(qū)別。 一、引言 神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元結(jié)構(gòu)的計算模型,它由大量的神經(jīng)元(或稱為節(jié)點)組成,這些神經(jīng)元通過權(quán)重連接在一起
    的頭像 發(fā)表于 07-03 10:14 ?378次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    化能力。隨著深度學(xué)習(xí)技術(shù)的不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)已經(jīng)成為人工智能領(lǐng)域的重要技術(shù)之一。卷積神經(jīng)網(wǎng)絡(luò)和BP神經(jīng)
    的頭像 發(fā)表于 07-02 14:24 ?1030次閱讀

    東風(fēng)與工業(yè)和信息化部電子第五研究所共建“未來交通聯(lián)合實驗室

    未來交通聯(lián)合實驗室”是東風(fēng)公司以打造國家級實驗室為目標建立的實驗室,將圍繞“未來交通形態(tài)研究
    的頭像 發(fā)表于 05-21 10:09 ?294次閱讀
    東風(fēng)與工業(yè)和信息化部電子第五<b class='flag-5'>研究</b>所共建“<b class='flag-5'>未來</b>交通聯(lián)合<b class='flag-5'>實驗室</b>”

    鼾聲監(jiān)測神經(jīng)網(wǎng)絡(luò)

    自動打鼾檢測的混合卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型。該模型由處理原始信號的一維(1D)CNN和表示通過可見性圖方法映射的圖像的二維(2D)CNN組成。在我們的實驗中,我們的算法實現(xiàn)了89.3%的平均
    發(fā)表于 05-15 12:14

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時代,錯綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進人們的視線,通過深度學(xué)習(xí)解決若干問題的案例越來越多。一
    的頭像 發(fā)表于 01-11 10:51 ?1610次閱讀
    詳解深度學(xué)習(xí)、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用