0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

邊緣計算中深度神經(jīng)網(wǎng)絡(luò)剪枝壓縮的研究

倩倩 ? 來源:我是天邊飄過一朵云 ? 2020-03-27 15:50 ? 次閱讀

邊緣計算將計算、網(wǎng)絡(luò)、存儲等能力擴展到物聯(lián)網(wǎng)設(shè)備附近的網(wǎng)絡(luò)邊緣側(cè),而以深度學習為代表的人工智能技術(shù)讓每個邊緣計算的節(jié)點都具有計算和決策的能力,這使得某些復雜的智能應用可以在本地邊緣端進行處理,滿足了敏捷連接、實時業(yè)務、數(shù)據(jù)優(yōu)化、應用智能、安全與隱私保護等方面的需求。智能邊緣計算利用物聯(lián)網(wǎng)的邊緣設(shè)備進行數(shù)據(jù)采集和智能分析計算,實現(xiàn)智能在云和邊緣之間流動,對人工智能算法、終端、芯片都提出了新的需求,正成為越來越多人工智能企業(yè)關(guān)注的重點方向。然而,由于深度學習模型推理需要消耗大量的計算資源,當前的大多數(shù)邊緣設(shè)備由于資源受限無法以低延遲、低功耗、高精確率的方式支持深度學習應用。

深度神經(jīng)網(wǎng)絡(luò)與其他很多機器學習模型一樣,可分為訓練和推理兩個階段。訓練階段根據(jù)數(shù)據(jù)學習模型中的參數(shù)(對神經(jīng)網(wǎng)絡(luò)來說主要是網(wǎng)絡(luò)中的權(quán)重);推理階段將新數(shù)據(jù)輸入模型,經(jīng)過計算得出結(jié)果。過參數(shù)化是指在訓練階段,網(wǎng)絡(luò)需要大量的參數(shù)來捕捉數(shù)據(jù)中的微小信息,而一旦訓練完成到了推理階段,就不需要這么多的參數(shù)。基于這樣的假設(shè),就可以在部署前對模型進行簡化。模型壓縮中的剪枝(pruning)和量化兩類方法正是基于這樣的前提。模型簡化的優(yōu)點包括但不限于:(1)計算量的減小,從而使計算時間更少,功耗更小;(2)存儲和讀寫訪問量變小,可以放到更邊緣的設(shè)備上運行,本來需要既慢又耗能的DRAM參與,現(xiàn)在有可能放在SRAM就可以。其核心問題是如何有效地裁剪模型并使得精度的損失最小化。

對于神經(jīng)網(wǎng)絡(luò)修剪的研究始于20世紀80年代末、90年代初。漢森(Hanson)在1988年提出基于幅度的修剪方法,即對網(wǎng)絡(luò)中每個隱含單元施加與其絕對值相關(guān)的權(quán)重衰減來使隱含單元數(shù)量最小化。樂昆(LeCun)和哈斯比(Hassibi)分別在1990年和1993年提出最優(yōu)腦損傷(Optimal Brain Damage,OBD)和最優(yōu)腦手術(shù)(Optimal Brain Surgeon,OBS)方法,它們基于損失函數(shù)相對于權(quán)重的二階導數(shù)(對權(quán)重向量來說即Hessian矩陣)來衡量網(wǎng)絡(luò)中權(quán)重的重要程度,然后對其進行裁剪。由于受到當時計算資源的限制,研究僅限于淺層神經(jīng)網(wǎng)絡(luò),但其對問題的定義和解決問題的思路對之后的工作產(chǎn)生了深遠的影響。從2012年起,神經(jīng)網(wǎng)絡(luò)的變化趨勢是不斷加深網(wǎng)絡(luò)以提高精度。在2015-2016年期間,Han等人發(fā)表了一系列對深度神經(jīng)網(wǎng)絡(luò)進行模型壓縮的工作,其中Deep Compression對當時經(jīng)典網(wǎng)絡(luò)AlexNet和VGG進行了壓縮。結(jié)合修剪、量化和哈夫曼編碼等多種方法,將網(wǎng)絡(luò)尺寸壓縮至幾十分之一,性能獲得成倍的提升。其中對于修剪帶來的精度損失,使用了迭代修剪方法進行補償,使精度幾乎沒有損失。之后這幾年,模型壓縮領(lǐng)域變得越來越豐富,越來越多的相關(guān)工作衍生而出。

從網(wǎng)絡(luò)修剪的粒度來說,可以分為結(jié)構(gòu)化剪枝(structured pruning)和非結(jié)構(gòu)化剪枝(unstructured pruning)兩類。早期的一些方法是基于非結(jié)構(gòu)化的,它修剪的粒度為單個神經(jīng)元。如果對卷積核進行非結(jié)構(gòu)化剪枝,則得到的卷積核是稀疏的,即中間有很多元素為0的矩陣。除非下層的硬件和計算庫對其有比較好的支持,否則修剪后的網(wǎng)絡(luò)很難獲得實質(zhì)的性能提升。稀疏矩陣無法利用現(xiàn)有成熟的基礎(chǔ)線性代數(shù)子程序(Basic Linear Algebra Subprograms,BLAS)庫來獲得額外性能收益。因此,很多研究是集中在結(jié)構(gòu)化剪枝上,通常細分為通道剪枝、卷積核剪枝和網(wǎng)絡(luò)結(jié)構(gòu)修剪。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4733

    瀏覽量

    100415
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5463

    瀏覽量

    120889
  • 邊緣計算
    +關(guān)注

    關(guān)注

    22

    文章

    3042

    瀏覽量

    48474
收藏 人收藏

    評論

    相關(guān)推薦

    神經(jīng)網(wǎng)絡(luò)在FPGA上的應用:深度壓縮方法

    對AlexNet和VGG-16進行了實驗,獲得了35倍和49倍的壓縮量,而且精度幾乎沒有損失。 1. 原理 深度壓縮之所以獲得成功主要是結(jié)合了三種壓縮方法:
    的頭像 發(fā)表于 11-21 11:00 ?3175次閱讀
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>在FPGA上的應用:<b class='flag-5'>深度</b><b class='flag-5'>壓縮</b>方法

    從AlexNet到MobileNet,帶你入門深度神經(jīng)網(wǎng)絡(luò)

    思維導圖如下:發(fā)展歷程DNN-定義和概念在卷積神經(jīng)網(wǎng)絡(luò),卷積操作和池化操作有機的堆疊在一起,一起組成了CNN的主干。同樣是受到獼猴視網(wǎng)膜與視覺皮層之間多層網(wǎng)絡(luò)的啟發(fā),深度
    發(fā)表于 05-08 15:57

    如何設(shè)計BP神經(jīng)網(wǎng)絡(luò)圖像壓縮算法?

    ,并能在腦海中重現(xiàn)這些圖像信息,這不僅與人腦的海量信息存儲能力有關(guān),還與人腦的信息處理能力,包括數(shù)據(jù)壓縮能力有關(guān)。在各種神經(jīng)網(wǎng)絡(luò),多層前饋神經(jīng)網(wǎng)絡(luò)具有很強的信息處理能力,由于其采用B
    發(fā)表于 08-08 06:11

    深度神經(jīng)網(wǎng)絡(luò)是什么

    多層感知機 深度神經(jīng)網(wǎng)絡(luò)in collaboration with Hsu Chung Chuan, Lin Min Htoo, and Quah Jia Yong. 與許忠傳,林敏濤和華佳勇合作
    發(fā)表于 07-12 06:35

    基于深度神經(jīng)網(wǎng)絡(luò)的激光雷達物體識別系統(tǒng)

    的激光雷達物體識別技術(shù)一直難以在嵌入式平臺上實時運行。經(jīng)緯恒潤經(jīng)過潛心研發(fā),攻克了深度神經(jīng)網(wǎng)絡(luò)在嵌入式平臺部署所面臨的算子定制與加速、量化策略、模型壓縮等難題,率先實現(xiàn)了高性能激光檢測神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 12-21 07:59

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應用

    network,DBN)[24], 從此拉開了深度學習大幕。隨著深度學習理論的研究和發(fā)展,研究人員提 出了一系列卷積神經(jīng)網(wǎng)絡(luò)模型。為了比較
    發(fā)表于 08-02 10:39

    深度神經(jīng)網(wǎng)絡(luò)壓縮和正則化剖析

    利用深度壓縮和DSD訓練來提高預測精度。 深度神經(jīng)網(wǎng)絡(luò)已經(jīng)成為解決計算機視覺、語音識別和自然語言處理等機器學習任務的最先進的技術(shù)。盡管如此,
    發(fā)表于 11-16 13:11 ?1808次閱讀
    <b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的<b class='flag-5'>壓縮</b>和正則化剖析

    面向“邊緣”應用的卷積神經(jīng)網(wǎng)絡(luò)如何進行量化與壓縮詳細方法

    針對卷積神經(jīng)網(wǎng)絡(luò)( CNN)推理計算所需內(nèi)存空間和資源過大,限制了其在嵌入式等“邊緣”設(shè)備上部署的問題,提出結(jié)合網(wǎng)絡(luò)權(quán)重裁剪及面向嵌入式硬件平臺數(shù)據(jù)類型的數(shù)據(jù)量化的
    發(fā)表于 12-26 17:01 ?4次下載
    面向“<b class='flag-5'>邊緣</b>”應用的卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>如何進行量化與<b class='flag-5'>壓縮</b>詳細方法

    基于深度神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)化剪枝算法

      現(xiàn)有結(jié)構(gòu)化剪枝算法通常運用深度神經(jīng)網(wǎng)絡(luò)(DNN)的一階或者零階信息對通道進行剪枝,為利用二階信息加快DNN網(wǎng)絡(luò)模型收斂速度,借鑒HAWQ
    發(fā)表于 03-10 16:41 ?2次下載
    基于<b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的結(jié)構(gòu)化<b class='flag-5'>剪枝</b>算法

    神經(jīng)網(wǎng)絡(luò)圖像壓縮算法的FPGA實現(xiàn)技術(shù)研究論文免費下載

    神經(jīng)網(wǎng)絡(luò)圖像壓縮是圖像壓縮神經(jīng)網(wǎng)絡(luò)領(lǐng)域的主要研究方向之一,基于多層前饋神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 03-22 16:06 ?11次下載
    <b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>圖像<b class='flag-5'>壓縮</b>算法的FPGA實現(xiàn)技術(shù)<b class='flag-5'>研究</b>論文免費下載

    深度神經(jīng)網(wǎng)絡(luò)模型的壓縮和優(yōu)化綜述

    近年來,隨著深度學習的飛速發(fā)展,深度神經(jīng)網(wǎng)絡(luò)受到了越來越多的關(guān)注,在許多應用領(lǐng)域取得了顯著效果。通常,在較高的計算量下,深度
    發(fā)表于 04-12 10:26 ?20次下載
    <b class='flag-5'>深度</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>模型的<b class='flag-5'>壓縮</b>和優(yōu)化綜述

    基于剪枝與量化的卷積神經(jīng)網(wǎng)絡(luò)壓縮算法

    隨著深度學習的發(fā)展,卷積神經(jīng)網(wǎng)絡(luò)作為其重要算法被廣泛應用到計算機視覺、自然語言處理及語音處理等各個領(lǐng)域,并取得了比傳統(tǒng)算法更為優(yōu)秀的成績。但是,卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)復雜,參數(shù)量和
    發(fā)表于 05-17 15:44 ?6次下載

    卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的優(yōu)缺點 卷積神經(jīng)網(wǎng)絡(luò)深度神經(jīng)網(wǎng)絡(luò)的區(qū)別

    深度神經(jīng)網(wǎng)絡(luò)是一種基于神經(jīng)網(wǎng)絡(luò)的機器學習算法,其主要特點是由多層神經(jīng)元構(gòu)成,可以根據(jù)數(shù)據(jù)自動調(diào)整神經(jīng)元之間的權(quán)重,從而實現(xiàn)對大規(guī)模數(shù)據(jù)進行預
    發(fā)表于 08-21 17:07 ?3852次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)壓縮方法

    ,CNN模型的參數(shù)量和計算量也隨之劇增,這對硬件資源提出了嚴峻挑戰(zhàn)。因此,卷積神經(jīng)網(wǎng)絡(luò)壓縮方法成為了研究熱點。本文將從多個角度詳細介紹卷積神經(jīng)網(wǎng)絡(luò)
    的頭像 發(fā)表于 07-11 11:46 ?273次閱讀

    FPGA在深度神經(jīng)網(wǎng)絡(luò)的應用

    、低功耗等特點,逐漸成為深度神經(jīng)網(wǎng)絡(luò)邊緣計算和設(shè)備端推理的重要硬件平臺。本文將詳細探討FPGA在深度
    的頭像 發(fā)表于 07-24 10:42 ?527次閱讀