0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

邊緣AI的模型壓縮技術(shù)

星星科技指導(dǎo)員 ? 來源:嵌入式計算設(shè)計 ? 作者:Rakesh R. Nakod ? 2022-10-19 14:22 ? 次閱讀

深度學(xué)習(xí)在模型及其數(shù)據(jù)集方面正在以驚人的速度增長。在應(yīng)用方面,深度學(xué)習(xí)市場以圖像識別為主,其次是光學(xué)字符識別,以及面部和物體識別。根據(jù) Allied 的市場調(diào)查,2020 年全球深度學(xué)習(xí)市場規(guī)模為 68.5 億美元,預(yù)計到 2030 年將達(dá)到 1799.6 億美元,從 2021 年到 2030 年的復(fù)合年增長率為 39.2%。

在某個時間點,人們認(rèn)為大型和復(fù)雜的模型表現(xiàn)更好,但現(xiàn)在它幾乎是一個神話。隨著邊緣AI的發(fā)展,越來越多的技術(shù)將大型復(fù)雜模型轉(zhuǎn)換為可以在邊緣上運(yùn)行的簡單模型,所有這些技術(shù)結(jié)合在一起執(zhí)行模型壓縮。

什么是模型壓縮?

模型壓縮是在具有低計算能力和內(nèi)存的邊緣設(shè)備上部署SOTA(最先進(jìn)的)深度學(xué)習(xí)模型的過程,而不會影響模型在準(zhǔn)確性,精度,召回性等方面的性能。模型壓縮廣泛地減少了模型中的兩件事,即大小和延遲。大小減小側(cè)重于通過減少模型參數(shù)使模型更簡單,從而減少執(zhí)行中的 RAM 要求和內(nèi)存中的存儲要求。減少延遲是指減少模型進(jìn)行預(yù)測或推斷結(jié)果所花費(fèi)的時間。模型大小和延遲通常是一起的,大多數(shù)技術(shù)都會減少兩者。

流行的模型壓縮技術(shù)

修剪:

修剪是模型壓縮的最流行的技術(shù),它通過刪除冗余和無關(guān)緊要的參數(shù)來工作。神經(jīng)網(wǎng)絡(luò)中的這些參數(shù)可以是連接器、神經(jīng)元、通道,甚至是層。它很受歡迎,因為它同時減小了模型的大小并改善了延遲。

pYYBAGNPl6-AZ2uZAAGw_oTIvEs500.png

修剪

修剪可以在訓(xùn)練模型時或在訓(xùn)練后完成。有不同類型的修剪技術(shù),包括重量/連接修剪,神經(jīng)元修剪,過濾器修剪和層修剪。

量化:

當(dāng)我們在修剪中移除神經(jīng)元,連接,過濾器,層等以減少加權(quán)參數(shù)的數(shù)量時,權(quán)重的大小在量化過程中減小。在此過程中,較大集中的值將映射到較小集中的值。與輸入網(wǎng)絡(luò)相比,輸出網(wǎng)絡(luò)的值范圍較窄,但保留了大部分信息。

知識提煉:

在知識提煉過程中,一個復(fù)雜而大型的模型在一個非常大的數(shù)據(jù)集上被訓(xùn)練。微調(diào)大型模型后,它可以很好地處理看不見的數(shù)據(jù)。一旦實現(xiàn),這些知識就會轉(zhuǎn)移到較小的神經(jīng)網(wǎng)絡(luò)或模型中。同時使用教師網(wǎng)絡(luò)(較大模型)和學(xué)生網(wǎng)絡(luò)(較小模型)。這里存在兩個方面,知識提煉,其中我們不調(diào)整教師模型,而在遷移學(xué)習(xí)中,我們使用確切的模型和權(quán)重,在一定程度上改變模型,并針對相關(guān)任務(wù)進(jìn)行調(diào)整。

poYBAGNPl7aAcED2AAB8DjxHRCw852.png

知識蒸餾系統(tǒng)

知識、蒸餾算法和師生架構(gòu)模型是典型知識蒸餾系統(tǒng)的三個主要部分,如上圖所示。

低矩陣分解:

矩陣構(gòu)成了大多數(shù)深度神經(jīng)架構(gòu)的大部分。該技術(shù)旨在通過應(yīng)用矩陣或張量分解并將它們變成更小的矩陣來識別冗余參數(shù)。當(dāng)應(yīng)用于密集 DNN(深度神經(jīng)網(wǎng)絡(luò))時,此技術(shù)可降低 CNN(卷積神經(jīng)網(wǎng)絡(luò))層的存儲要求和因式分解,并縮短推理時間。具有二維且具有秩 r 的權(quán)重矩陣 A 可以分解為更小的矩陣,如下所示。

poYBAGNPl72AUTPYAABK48-5WA8433.png

低矩陣因式分解

模型準(zhǔn)確性和性能在很大程度上取決于正確的因式分解和秩選擇。低秩因式分解過程中的主要挑戰(zhàn)是更難實現(xiàn),并且計算密集型??傮w而言,與全秩矩陣表示相比,密集層矩陣的因式分解可導(dǎo)致更小的模型和更快的性能。

由于邊緣AI,模型壓縮策略變得非常重要。這些方法相互補(bǔ)充,可以在整個AI管道的各個階段使用。像張量流和Pytorch這樣的流行框架現(xiàn)在包括修剪和量化等技術(shù)。最終,該領(lǐng)域使用的技術(shù)數(shù)量將會增加。

審核編輯:郭婷

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 連接器
    +關(guān)注

    關(guān)注

    98

    文章

    13862

    瀏覽量

    135124
  • RAM
    RAM
    +關(guān)注

    關(guān)注

    8

    文章

    1344

    瀏覽量

    114223
  • 深度學(xué)習(xí)
    +關(guān)注

    關(guān)注

    73

    文章

    5422

    瀏覽量

    120598
收藏 人收藏

    評論

    相關(guān)推薦

    云天勵飛邊緣AI推動大模型規(guī)模化應(yīng)用落地

    2024年毫無疑問是大模型應(yīng)用落地元年,面對靈活多變的任務(wù)和復(fù)雜的場景環(huán)境,用邊緣AI打造低成本、高效能、強(qiáng)落地的大模型應(yīng)用是關(guān)鍵。
    的頭像 發(fā)表于 09-18 14:59 ?219次閱讀

    云知聲在邊緣側(cè)大模型技術(shù)探索和應(yīng)用

    ? 隨著人工智能技術(shù)的飛速發(fā)展,汽車行業(yè)正從“軟件定義汽車”向“AI定義汽車”的新時代邁進(jìn)。如何將大模型技術(shù)更深入地整合到車載系統(tǒng)中,以實現(xiàn)更高效、更低成本的智能化解決方案,正成為眾多
    的頭像 發(fā)表于 06-29 15:30 ?672次閱讀

    ai邊緣盒子有哪些用途?ai視頻分析邊緣計算盒子詳解

    的解決方案。AI邊緣盒子的主要用途在于利用邊緣計算和人工智能技術(shù),在數(shù)據(jù)產(chǎn)生源頭附近即時處理數(shù)據(jù),提供低延遲和高響應(yīng)性能。例如,在智慧工地上,AI
    的頭像 發(fā)表于 05-29 14:24 ?626次閱讀
    <b class='flag-5'>ai</b><b class='flag-5'>邊緣</b>盒子有哪些用途?<b class='flag-5'>ai</b>視頻分析<b class='flag-5'>邊緣</b>計算盒子詳解

    部署在邊緣設(shè)備上的輕量級模型

    的地方進(jìn)行智能決策和數(shù)據(jù)處理。 ? 邊緣AI 算法通常是經(jīng)過優(yōu)化和壓縮的輕量級模型 ? 邊緣AI
    的頭像 發(fā)表于 05-11 00:17 ?2454次閱讀

    NVIDIA與恩智浦聯(lián)手,在邊緣設(shè)備上部署AI模型

    恩智浦工業(yè)及IoT邊緣高級副總裁Charles Dachs表示,人工智能的創(chuàng)新將塑造智能互聯(lián)世界的未來,融入Nvidia先進(jìn)的AI培訓(xùn)技術(shù)以及恩智浦在工業(yè)及物聯(lián)網(wǎng)邊緣科研實力,將產(chǎn)生協(xié)
    的頭像 發(fā)表于 03-25 16:05 ?763次閱讀

    cubemx ai導(dǎo)入onnx模型壓縮失敗了怎么解決?

    cubemx ai導(dǎo)入onnx模型壓縮失敗。請問我怎么解決
    發(fā)表于 03-19 07:58

    NanoEdge AI技術(shù)原理、應(yīng)用場景及優(yōu)勢

    能耗并提高數(shù)據(jù)安全性。本文將對 NanoEdge AI技術(shù)原理、應(yīng)用場景以及優(yōu)勢進(jìn)行綜述。 1、技術(shù)原理 NanoEdge AI 的核心技術(shù)
    發(fā)表于 03-12 08:09

    什么是AI邊緣計算,AI邊緣計算的特點和優(yōu)勢介紹

    隨著人工智能的迅猛發(fā)展,AI邊緣計算成為了熱門話題。那么什么是AI邊緣計算呢?簡單來說,它是將人工智能技術(shù)引入
    的頭像 發(fā)表于 02-01 11:42 ?703次閱讀

    AI邊緣計算機(jī)應(yīng)用場景廣泛!大語言模型與數(shù)字人結(jié)合方案在邊緣側(cè)落地

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)AI邊緣計算機(jī)是一種人工智能和邊緣計算技術(shù)相結(jié)合的計算機(jī)設(shè)備。它可以在本地設(shè)備上運(yùn)行AI
    的頭像 發(fā)表于 01-16 01:11 ?4241次閱讀
    <b class='flag-5'>AI</b><b class='flag-5'>邊緣</b>計算機(jī)應(yīng)用場景廣泛!大語言<b class='flag-5'>模型</b>與數(shù)字人結(jié)合方案在<b class='flag-5'>邊緣</b>側(cè)落地

    邊緣AI它到底是什么?能做什么?

    邊緣AI它到底是什么?能做什么? 邊緣人工智能是一種新興的人工智能技術(shù),它將人工智能的計算和決策能力移動到離數(shù)據(jù)生成源和終端設(shè)備更近的邊緣節(jié)
    的頭像 發(fā)表于 01-11 14:44 ?1105次閱讀

    邊緣AI核心技術(shù)和產(chǎn)業(yè)鏈!技術(shù)持續(xù)進(jìn)步,應(yīng)用不斷拓展!

    ,并保護(hù)用戶的隱私。此外,邊緣AI還可以在沒有互聯(lián)網(wǎng)連接的情況下獨立運(yùn)行,這對于一些實時性要求較高的應(yīng)用非常重要。 ? 邊緣AI 產(chǎn)業(yè)鏈及核心技術(shù)
    的頭像 發(fā)表于 01-11 01:20 ?4539次閱讀
    <b class='flag-5'>邊緣</b><b class='flag-5'>AI</b>核心<b class='flag-5'>技術(shù)</b>和產(chǎn)業(yè)鏈!<b class='flag-5'>技術(shù)</b>持續(xù)進(jìn)步,應(yīng)用不斷拓展!

    邊緣側(cè)部署大模型優(yōu)勢多!模型量化解決邊緣設(shè)備資源限制問題

    電子發(fā)燒友網(wǎng)報道(文/李彎彎)大模型邊緣部署是將大模型部署在邊緣設(shè)備上,以實現(xiàn)更快速、更低延遲的計算和推理。邊緣設(shè)備可以是各種終端設(shè)備,如
    的頭像 發(fā)表于 01-05 00:06 ?2952次閱讀

    AI模型怎么解決芯片過剩?

    AI模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 15:42:05

    AI模型可以設(shè)計電路嗎?

    AI模型
    電子發(fā)燒友網(wǎng)官方
    發(fā)布于 :2024年01月02日 15:09:29

    算力強(qiáng)勁的AI邊緣計算盒子# 邊緣計算

    AI邊緣計算
    成都華江信息
    發(fā)布于 :2023年11月24日 16:31:06