0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內(nèi)不再提示

了解深度學習神經(jīng)網(wǎng)絡的現(xiàn)狀,英特爾FPGA實施神經(jīng)網(wǎng)絡的必然之選

電子工程師 ? 來源:lq ? 2018-12-17 16:03 ? 次閱讀

在腦認知科學中有這么一個觀點,如果幾個神經(jīng)元之間經(jīng)常構成連通路,且通過這幾個神經(jīng)元進行信息傳遞不如兩者直接通過在彼此中間“搭橋”進行信息傳遞來得快,那么大腦結構就會根據(jù)細胞結構上信息傳遞的頻率在兩者之間幫助生出一個神經(jīng)元來幫助更高效的獲取與處理大腦信息。

從上面這個內(nèi)容中我們可以發(fā)現(xiàn),現(xiàn)在人工智能的發(fā)展并不足夠完美,但我們依然受類似的生物系統(tǒng)啟發(fā)從而提出神經(jīng)網(wǎng)絡結構,并將之用于人工智能技術的發(fā)展?,F(xiàn)在,通過融合強大計算資源和用于神經(jīng)元的新型架構,神經(jīng)網(wǎng)絡已然在計算機視覺和機器翻譯等很多領域都取得了最先進的成果。

然而相對來說,這樣的技術發(fā)展可都有各種嚴格的要求,尤其速度。那么我們現(xiàn)代人在大數(shù)據(jù)噴發(fā)的今天,是怎么做到計算與速度兩者皆備的呢?在此之前,我們不妨先來了解深度學習神經(jīng)網(wǎng)絡的現(xiàn)狀。

深度學習神經(jīng)網(wǎng)絡現(xiàn)狀

深度學習神經(jīng)網(wǎng)絡系統(tǒng)目前已能夠為許多人提供最佳解決方案,并已用于圖像識別和自然語言處理的大型計算問題。更多的人使用傳統(tǒng)的處理來模仿神經(jīng)網(wǎng)絡并創(chuàng)建一個系統(tǒng),并通過觀察來學習。雖然我們在這個領域已經(jīng)取得了很大進展,但基于Web的神經(jīng)網(wǎng)絡高性能系統(tǒng)開發(fā)等多種技術,在功耗,成本和性能方面仍然存在重大挑戰(zhàn)。

此外,最廣泛使用的深度學習系統(tǒng)是卷積神經(jīng)網(wǎng)絡(細胞神經(jīng)網(wǎng)絡)。這些系統(tǒng)使用神經(jīng)元的前饋人工網(wǎng)絡執(zhí)行圖像識別。如有線電視新聞網(wǎng)是由層組成。其中,池化層通過最大值或值平均,池化減少變化圖像特定區(qū)域的共同特征。CNN層的數(shù)量與圖像識別的準確性相關;更多圖層需要更多系統(tǒng)性能。這些層可以獨立運行。

圖1:二維卷積層

多核處理系統(tǒng)使用外部存儲器緩沖每層之間的數(shù)據(jù),這需要大量的內(nèi)存與帶寬。到目前為止,神經(jīng)網(wǎng)絡中性能最強的功能是卷積自己。傳統(tǒng)的處理器內(nèi)核必須為每個內(nèi)核執(zhí)行大量指令。卷積需要大量的處理與帶寬。

實現(xiàn)CNN的有效實施有兩個主要挑戰(zhàn)。首先是能夠在管道中執(zhí)行函數(shù),將數(shù)據(jù)從上一個層傳遞到下一個。第二是有效地執(zhí)行卷積函數(shù)。另外,這些功能應該用一種方法構建允許輕松重新編程不同類型的硬件和移植到未來的高級硬件,否則,每個新的實現(xiàn)都需要廣泛的重新優(yōu)化。

英特爾FPGA,實施神經(jīng)網(wǎng)絡的必然之選

在英特爾公司,F(xiàn)PGA 當稱實施神經(jīng)網(wǎng)絡的必然之選,它可在同一設備上處理計算、邏輯和存儲資源中的不同算法。與其它同行對手的裝置相比,其性能更快,用戶可通過硬件來完成核心部分運算。加上軟件開發(fā)者可使用 OpenCL?1C 級編程標準,將 FPGA 作為標準 CPU 的加速器,更加無需處理硬件級設計。

“Why?因為它能將計算,邏輯和內(nèi)存資源結合在一起共同使用。再加上英特爾?FPGASDK的幫助,使得它能夠適用于各種加速應用并使用更多復雜的算法。軟件開發(fā)人員也可以使用OpenCL C級編程標準?!?/p>

此外,英特爾已經(jīng)開發(fā)出可擴展的卷積神經(jīng)網(wǎng)絡參考設計,并用于使用OpenCL編程的深度學習系統(tǒng)。(使用OpenCL SDK構建的語言)這個設計首先是在Stratix?V器件系列上實現(xiàn),現(xiàn)在適用于Arria?10器件。設計表現(xiàn)是使用兩個流行的CNN基準進行基準測試:CIFAR-10和ImageNet。(典型的GPU實現(xiàn)批處理圖像需要大量的外部存儲器帶寬。相比之下,F(xiàn)PGA可以一次性處理圖像,芯片上的數(shù)據(jù)重用率更高,外部使用更少內(nèi)存帶寬。)

圖2:神經(jīng)網(wǎng)絡數(shù)據(jù)通道

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 英特爾
    +關注

    關注

    60

    文章

    9757

    瀏覽量

    170697
  • 神經(jīng)網(wǎng)絡

    關注

    42

    文章

    4717

    瀏覽量

    100040
  • 深度學習
    +關注

    關注

    73

    文章

    5422

    瀏覽量

    120601

原文標題:從“腦認知科學”看神經(jīng)元之旅,你對深度神經(jīng)網(wǎng)絡該有這樣的認知

文章出處:【微信號:FPGAer_Club,微信公眾號:FPGAer俱樂部】歡迎添加關注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關推薦

    FPGA深度神經(jīng)網(wǎng)絡中的應用

    、低功耗等特點,逐漸成為深度神經(jīng)網(wǎng)絡在邊緣計算和設備端推理的重要硬件平臺。本文將詳細探討FPGA深度神經(jīng)網(wǎng)絡中的應用,包括其優(yōu)勢、設計流程
    的頭像 發(fā)表于 07-24 10:42 ?388次閱讀

    rnn是遞歸神經(jīng)網(wǎng)絡還是循環(huán)神經(jīng)網(wǎng)絡

    RNN(Recurrent Neural Network)是循環(huán)神經(jīng)網(wǎng)絡,而非遞歸神經(jīng)網(wǎng)絡。循環(huán)神經(jīng)網(wǎng)絡是一種具有時間序列特性的神經(jīng)網(wǎng)絡,能夠處理序列數(shù)據(jù),具有記憶功能。以下是關于循環(huán)
    的頭像 發(fā)表于 07-05 09:52 ?390次閱讀

    遞歸神經(jīng)網(wǎng)絡是循環(huán)神經(jīng)網(wǎng)絡

    遞歸神經(jīng)網(wǎng)絡(Recurrent Neural Network,簡稱RNN)和循環(huán)神經(jīng)網(wǎng)絡(Recurrent Neural Network,簡稱RNN)實際上是同一個概念,只是不同的翻譯方式
    的頭像 發(fā)表于 07-04 14:54 ?461次閱讀

    循環(huán)神經(jīng)網(wǎng)絡和卷積神經(jīng)網(wǎng)絡的區(qū)別

    循環(huán)神經(jīng)網(wǎng)絡(Recurrent Neural Network,RNN)和卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network,CNN)是深度學習領域中兩種非常重要的
    的頭像 發(fā)表于 07-04 14:24 ?534次閱讀

    深度神經(jīng)網(wǎng)絡與基本神經(jīng)網(wǎng)絡的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(通常指傳統(tǒng)神經(jīng)網(wǎng)絡或前向神經(jīng)網(wǎng)絡)的區(qū)別時,我們需
    的頭像 發(fā)表于 07-04 13:20 ?347次閱讀

    卷積神經(jīng)網(wǎng)絡與循環(huán)神經(jīng)網(wǎng)絡的區(qū)別

    深度學習領域,卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks, CNN)和循環(huán)神經(jīng)網(wǎng)絡(Recurrent Neural Networks, RNN)是兩種
    的頭像 發(fā)表于 07-03 16:12 ?999次閱讀

    反向傳播神經(jīng)網(wǎng)絡和bp神經(jīng)網(wǎng)絡的區(qū)別

    神經(jīng)網(wǎng)絡在許多領域都有廣泛的應用,如語音識別、圖像識別、自然語言處理等。然而,BP神經(jīng)網(wǎng)絡也存在一些問題,如容易陷入局部最優(yōu)解、訓練時間長、對初始權重敏感等。為了解決這些問題,研究者們提出了一些改進的BP
    的頭像 發(fā)表于 07-03 11:00 ?382次閱讀

    bp神經(jīng)網(wǎng)絡深度神經(jīng)網(wǎng)絡

    BP神經(jīng)網(wǎng)絡(Backpropagation Neural Network)是一種常見的前饋神經(jīng)網(wǎng)絡,它使用反向傳播算法來訓練網(wǎng)絡。雖然BP神經(jīng)網(wǎng)絡在某些方面與
    的頭像 發(fā)表于 07-03 10:14 ?385次閱讀

    卷積神經(jīng)網(wǎng)絡訓練的是什么

    卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks,簡稱CNN)是一種深度學習模型,廣泛應用于圖像識別、視頻分析、自然語言處理等領域。本文將詳細介紹卷積神經(jīng)網(wǎng)絡
    的頭像 發(fā)表于 07-03 09:15 ?221次閱讀

    深度學習與卷積神經(jīng)網(wǎng)絡的應用

    隨著人工智能技術的飛速發(fā)展,深度學習和卷積神經(jīng)網(wǎng)絡(Convolutional Neural Network, CNN)作為其中的重要分支,已經(jīng)在多個領域取得了顯著的應用成果。從圖像識別、語音識別
    的頭像 發(fā)表于 07-02 18:19 ?573次閱讀

    卷積神經(jīng)網(wǎng)絡和bp神經(jīng)網(wǎng)絡的區(qū)別

    化能力。隨著深度學習技術的不斷發(fā)展,神經(jīng)網(wǎng)絡已經(jīng)成為人工智能領域的重要技術之一。卷積神經(jīng)網(wǎng)絡和BP神經(jīng)
    的頭像 發(fā)表于 07-02 14:24 ?1100次閱讀

    深度神經(jīng)網(wǎng)絡模型有哪些

    、Sigmoid或Tanh。 卷積神經(jīng)網(wǎng)絡(Convolutional Neural Networks,CNN): 卷積神經(jīng)網(wǎng)絡深度學習中最重
    的頭像 發(fā)表于 07-02 10:00 ?562次閱讀

    神經(jīng)網(wǎng)絡架構有哪些

    神經(jīng)網(wǎng)絡架構是機器學習領域中的核心組成部分,它們模仿了生物神經(jīng)網(wǎng)絡的運作方式,通過復雜的網(wǎng)絡結構實現(xiàn)信息的處理、存儲和傳遞。隨著深度
    的頭像 發(fā)表于 07-01 14:16 ?357次閱讀

    詳解深度學習、神經(jīng)網(wǎng)絡與卷積神經(jīng)網(wǎng)絡的應用

    在如今的網(wǎng)絡時代,錯綜復雜的大數(shù)據(jù)和網(wǎng)絡環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡都面臨巨大的挑戰(zhàn)。近些年,深度學習逐漸走進人們的視線
    的頭像 發(fā)表于 01-11 10:51 ?1628次閱讀
    詳解<b class='flag-5'>深度</b><b class='flag-5'>學習</b>、<b class='flag-5'>神經(jīng)網(wǎng)絡</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡</b>的應用

    淺析深度神經(jīng)網(wǎng)絡壓縮與加速技術

    深度神經(jīng)網(wǎng)絡深度學習的一種框架,它是一種具備至少一個隱層的神經(jīng)網(wǎng)絡。與淺層神經(jīng)網(wǎng)絡類似
    的頭像 發(fā)表于 10-11 09:14 ?604次閱讀
    淺析<b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡</b>壓縮與加速技術