0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

AutoML模型壓縮技術,利用強化學習將壓縮流程自動化

DPVg_AI_era ? 來源:未知 ? 作者:李倩 ? 2018-09-24 08:44 ? 次閱讀

MIT韓松團隊和Google Cloud的研究人員提出AutoML模型壓縮技術,利用強化學習將壓縮流程自動化,完全無需人工,而且速度更快,性能更高。

模型壓縮是在計算資源有限、能耗預算緊張的移動設備上有效部署神經網絡模型的關鍵技術。

在許多機器學習應用,例如機器人、自動駕駛和廣告排名等,深度神經網絡經常受到延遲、電力和模型大小預算的限制。已經有許多研究提出通過壓縮模型來提高神經網絡的硬件效率。

模型壓縮技術的核心是確定每個層的壓縮策略,因為它們具有不同的冗余,這通常需要手工試驗和領域專業(yè)知識來探索模型大小、速度和準確性之間的大設計空間。這個設計空間非常大,人工探索法通常是次優(yōu)的,而且手動進行模型壓縮非常耗時。

為此,韓松團隊提出了AutoML模型壓縮(AutoML for Model Compression,簡稱AMC),利用強化學習來提供模型壓縮策略。

論文地址:

https://arxiv.org/pdf/1802.03494.pdf

負責這項研究的MIT助理教授韓松博士表示:

“算力換算法”是當今AutoML系列工作的熱點話題,AMC則屬于“算力換算力”:用training時候的算力換取inference時候的算力。模型在完成一次訓練之后,可能要在云上或移動端部署成千上萬次,所以inference的速度和功耗至關重要。

我們用AutoML做一次性投入來優(yōu)化模型的硬件效率,然后在inference的時候可以得到事半功倍的效果。比如AMC將MobileNet inference時的計算量從569M MACs降低到285M MACs,在Pixel-1手機上的速度由8.1fps提高到14.6fps,僅有0.1%的top-1準確率損失。AMC采用了合適的搜索空間,對壓縮策略的搜索僅需要4個GPU hours。

總結來講,AMC用“Training算力”換取“Inference算力”的同時減少的對“人力“的依賴。最后,感謝Google Cloud AI對本項目的支持。

Google Cloud 研發(fā)總監(jiān)李佳也表示:“AMC是我們在模型壓縮方面的一點嘗試,希望有了這類的技術,讓更多的mobile和計算資源有限的應用變得可能?!?/p>

“Cloud AutoML 產品設計讓機器學習的過程變得更簡單,讓即便沒有機器學習經驗的人也可以享受機器學習帶來的益處。盡管AutoML有很大的進步,這仍是一項相對初期的技術,還有很多方面需要提高和創(chuàng)新?!崩罴颜f。

用AI做模型壓縮,完全不需要人工

研究人員的目標是自動查找任意網絡的壓縮策略,以實現(xiàn)比人為設計的基于規(guī)則的模型壓縮方法更好的性能。

這項工作的創(chuàng)新性體現(xiàn)在:

1、AMC提出的learning-based model compression優(yōu)于傳統(tǒng)的rule-based model compression

2、資源有限的搜索

3、用于細粒度操作的連續(xù)行動空間

4、使用很少的GPU進行快速搜索(ImageNet上1個GPU,花費4小時)

目標:自動化壓縮流程,完全無需人工。利用AI進行模型壓縮,自動化,速度更快,而且性能更高。

這種基于學習的壓縮策略優(yōu)于傳統(tǒng)的基于規(guī)則的壓縮策略,具有更高的壓縮比,在更好地保持準確性的同時節(jié)省了人力。

在4×FLOP降低的情況下,我們在ImageNet上對VGG-16模型進行壓縮,實現(xiàn)了比手工模型壓縮策略高2.7%的精度。

我們將這種自動化壓縮pipeline應用于MobileNet,在Android手機上測到1.81倍的推斷延遲加速,在Titan XP GPU上實現(xiàn)了1.43倍的加速,ImageNet Top-1精度僅下降了0.1%。

AutoML模型壓縮:基于學習而非規(guī)則

圖1:AutoML模型壓縮(AMC)引擎的概覽。左邊:AMC取代人工,將模型壓縮過程完全自動化,同時比人類表現(xiàn)更好。右邊:將AMC視為一個強化學習為題。

以前的研究提出了許多基于規(guī)則的模型壓縮啟發(fā)式方法。但是,由于深層神經網絡中的層不是獨立的,這些基于規(guī)則的剪枝策略并非是最優(yōu)的,而且不能從一個模型轉移到另一個模型。隨著神經網絡結構的快速發(fā)展,我們需要一種自動化的方法來壓縮它們,以提高工程師的效率。

AutoML for Model Compression(AMC)利用強化學習來自動對設計空間進行采樣,提高模型壓縮質量。圖1展示了AMC引擎的概覽。在壓縮網絡是,ACM引擎通過基于學習的策略來自動執(zhí)行這個過程,而不是依賴于基于規(guī)則的策略和工程師

我們觀察到壓縮模型的精度對每層的稀疏性非常敏感,需要細粒度的動作空間。因此,我們不是在一個離散的空間上搜索,而是通過DDPG agent提出連續(xù)壓縮比控制策略,通過反復試驗來學習:在精度損失時懲罰,在模型縮小和加速時鼓勵。actor-critic的結構也有助于減少差異,促進更穩(wěn)定的訓練。

針對不同的場景,我們提出了兩種壓縮策略搜索協(xié)議:

對于latency-critical的AI應用(例如,手機APP,自動駕駛汽車和廣告排名),我們建議采用資源受限的壓縮(resource-constrained compression),在最大硬件資源(例如,F(xiàn)LOP,延遲和模型大?。┫聦崿F(xiàn)最佳精度);

對于quality-critical的AI應用(例如Google Photos),我們提出精度保證的壓縮(accuracy-guaranteed compression),在實現(xiàn)最小尺寸模型的同時不損失精度。

DDPG Agent

DDPG Agent用于連續(xù)動作空間(0-1)

輸入每層的狀態(tài)嵌入,輸出稀疏比

壓縮方法研究

用于模型大小壓縮的細粒度剪枝(Fine-grained Pruning)

粗粒度/通道剪枝,以加快推理速度

搜索協(xié)議

資源受限壓縮,以達到理想的壓縮比,同時獲得盡可能高的性能。

精度保證壓縮,在保持最小模型尺寸的同時,完全保持原始精度。

為了保證壓縮的準確性,我們定義了一個精度和硬件資源的獎勵函數(shù)。有了這個獎勵函數(shù),就能在不損害模型精度的情況下探索壓縮的極限。

對于資源受限的壓縮,只需使用Rerr = -Error

對于精度保證的壓縮,要考慮精度和資源(如FLOPs):RFLOPs = -Error?log(FLOPs)

實驗和結果:全面超越手工調參

為了證明其廣泛性和普遍適用性,我們在多個神經網絡上評估AMC引擎,包括VGG,ResNet和MobileNet,我們還測試了壓縮模型從分類到目標檢測的泛化能力。

強化學習agent對ResNet-50的剪枝策略

ACM將模型壓縮到更低密度而不損失精度(人類專家:ResNet50壓縮3.4倍;AMC:ResNet50壓縮5倍)

大量實驗表明,AMC提供的性能優(yōu)于手工調優(yōu)的啟發(fā)式策略。對于ResNet-50,我們將專家調優(yōu)的壓縮比從3.4倍提高到5倍,而沒有降低精度。

AMC對MobileNet的加速

此外,我們將MobileNet的FLOP降低了2倍,達到了70.2%的Top-1最高精度,這比0.75 MobileNet的Pareto曲線要好,并且在Titan XP實現(xiàn)了1.53倍的加速,在一部Android手機實現(xiàn)1.95的加速。

AMC和人類專家對MobileNet進行壓縮的精度比較和推理時間比較

結論

傳統(tǒng)的模型壓縮技術使用手工的特征,需要領域專家來探索一個大的設計空間,并在模型的大小、速度和精度之間進行權衡,但結果通常不是最優(yōu)的,而且很耗費人力。

本文提出AutoML模型壓縮(AMC),利用增強學習自動搜索設計空間,大大提高了模型壓縮質量。我們還設計了兩種新的獎勵方案來執(zhí)行資源受限壓縮和精度保證壓縮。

在Cifar和ImageNet上采用AMC方法對MobileNet、MobileNet- v2、ResNet和VGG等模型進行壓縮,取得了令人信服的結果。壓縮模型可以很好滴從分類任務推廣到檢測任務。在谷歌Pixel 1手機上,我們將MobileNet的推理速度從8.1 fps提升到16.0 fps。AMC促進了移動設備上的高效深度神經網絡設計。

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經網絡
    +關注

    關注

    42

    文章

    4717

    瀏覽量

    100009
  • 機器學習
    +關注

    關注

    66

    文章

    8306

    瀏覽量

    131843
  • 強化學習
    +關注

    關注

    4

    文章

    263

    瀏覽量

    11158

原文標題:AutoML自動模型壓縮再升級,MIT韓松團隊利用強化學習全面超越手工調參

文章出處:【微信號:AI_era,微信公眾號:新智元】歡迎添加關注!文章轉載請注明出處。

收藏 人收藏

    評論

    相關推薦

    騰訊 AI Lab 開源世界首款自動化模型壓縮框架PocketFlow

    移動端AI開發(fā)者的自動模型壓縮框架,集成了當前主流的模型壓縮與訓練算法,結合自研超參數(shù)優(yōu)化組件實現(xiàn)了全程
    的頭像 發(fā)表于 09-18 11:51 ?4176次閱讀

    基于ARM嵌入式系統(tǒng)的自動化配送系統(tǒng)

    (回放)為核心,采用先進的數(shù)字圖像壓縮編/解碼技術和傳輸技術,智能圖像處理與識別技術用于圖像顯示、調整、跟蹤,根據(jù)現(xiàn)場環(huán)境對物體進行跟蹤識
    發(fā)表于 03-21 14:28

    深度強化學習實戰(zhàn)

    一:深度學習DeepLearning實戰(zhàn)時間地點:1 月 15日— 1 月18 日二:深度強化學習核心技術實戰(zhàn)時間地點: 1 月 27 日— 1 月30 日(第一天報到 授課三天;提前環(huán)境部署 電腦
    發(fā)表于 01-10 13:42

    啃論文俱樂部 | 壓縮算法團隊:我們是如何開展對壓縮算法的學習

    近 120 條壓縮算法相關內容。綜述索引是一個循序漸進的過程,隨著團隊不斷地學習進步,素材會慢慢豐富起來。最后,再基于時間軸或者思維導圖之類的模型對其進行構建技術地圖
    發(fā)表于 06-21 11:05

    壓縮模型會加速推理嗎?

    你好我使用 STM32CUBE-AI v5.1.2 ApplicationTemplate 簡單的 CNN 導入到 STM32L462RCT我發(fā)現(xiàn)壓縮模型對推理時間沒有影響。aiRun 程序在 8
    發(fā)表于 01-29 06:24

    深度學習強化學習相結合的深度強化學習DRL

    深度強化學習DRL自提出以來, 已在理論和應用方面均取得了顯著的成果。尤其是谷歌DeepMind團隊基于深度強化學習DRL研發(fā)的AlphaGo,深度強化學習DRL成推上新的熱點和高度
    發(fā)表于 06-29 18:36 ?2.8w次閱讀

    首款自動化深度學習模型壓縮框架——PocketFlow

    強化學習等算法以及 AI Lab 自研的 AutoML 自動超參數(shù)優(yōu)化框架來根據(jù)具體性能需求,確定最優(yōu)超參數(shù)取值組合。例如,對于通道剪枝算法,超參數(shù)優(yōu)化組件可以自動地根據(jù)原始
    的頭像 發(fā)表于 10-04 09:47 ?5002次閱讀

    Waymo用AutoML自動生成機器學習模型

    Waymo十周年之際,發(fā)布了自動駕駛機器學習模型的構建思路,原來很多內部架構是由 AutoML 完成的。
    的頭像 發(fā)表于 01-19 09:05 ?3227次閱讀

    機器學習中的無模型強化學習算法及研究綜述

    模型強化學習(Mode- based reinforcement Lear-ning)和無模型強化學習( Model- ree reirη
    發(fā)表于 04-08 11:41 ?11次下載
    機器<b class='flag-5'>學習</b>中的無<b class='flag-5'>模型</b><b class='flag-5'>強化學習</b>算法及研究綜述

    模型深度強化學習應用研究綜述

    強化學習。無模型強仳學習方法的訓練過程需要大量樣本,當采樣預算不足,無法收集大量樣本時,很難達到預期效果。然而,模型
    發(fā)表于 04-12 11:01 ?9次下載
    <b class='flag-5'>模型</b><b class='flag-5'>化</b>深度<b class='flag-5'>強化學習</b>應用研究綜述

    預先設置NAS算法能否實現(xiàn)AutoML自動機器學習革命

    、應用、人工智能和機器識別等領域。AutoML機器學習應用于現(xiàn)實問題的端到端流程自動化的過程。 中國的人工智能市場 與美國相比,中國人工
    發(fā)表于 12-09 10:40 ?318次閱讀
    預先設置NAS算法能否實現(xiàn)<b class='flag-5'>AutoML</b><b class='flag-5'>自動</b>機器<b class='flag-5'>學習</b>革命

    自動化學報》—多Agent深度強化學習綜述

    多Agent 深度強化學習綜述 來源:《自動化學報》,作者梁星星等 摘 要?近年來,深度強化學習(Deep reinforcement learning,DRL) 在諸多復雜序貫決策問題中取得巨大
    發(fā)表于 01-18 10:08 ?1471次閱讀
    《<b class='flag-5'>自動化學</b>報》—多Agent深度<b class='flag-5'>強化學習</b>綜述

    VEGA:諾亞AutoML高性能開源算法集簡介

    VEGA是華為諾亞方舟實驗室自研的全流程AutoML算法集合,提供架構搜索、超參優(yōu)化、數(shù)據(jù)增強、模型壓縮等全流程機器
    發(fā)表于 01-26 19:11 ?0次下載
    VEGA:諾亞<b class='flag-5'>AutoML</b>高性能開源算法集簡介

    ICLR 2023 Spotlight|節(jié)省95%訓練開銷,清華黃隆波團隊提出強化學習專用稀疏訓練框架RLx2

    模型時代,模型壓縮和加速顯得尤為重要。傳統(tǒng)監(jiān)督學習可通過稀疏神經網絡實現(xiàn)模型壓縮和加速,那么同
    的頭像 發(fā)表于 06-11 21:40 ?568次閱讀
    ICLR 2023 Spotlight|節(jié)省95%訓練開銷,清華黃隆波團隊提出<b class='flag-5'>強化學習</b>專用稀疏訓練框架RLx2

    產線自動化改造,智能空調壓縮機中的工業(yè)RFID技術應用

    通過RFID技術的應用,空調壓縮機的生產過程變得更加自動化和智能。自動化的裝配線減少了對人工操作的依賴,降低了因人為錯誤導致的生產成本。
    的頭像 發(fā)表于 06-21 11:03 ?180次閱讀