0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

詳解五種即插即用的視覺(jué)注意力模塊

OpenCV學(xué)堂 ? 來(lái)源:OpenCV學(xué)堂 ? 2023-05-18 10:23 ? 次閱讀

SE注意力模塊

SE注意力模塊的全稱(chēng)是Squeeze-and-Excitation block、其中Squeeze實(shí)現(xiàn)全局信息嵌入、Excitation實(shí)現(xiàn)自適應(yīng)權(quán)重矯正,合起來(lái)就是SE注意力模塊。

ce11300c-f4f0-11ed-90ce-dac502259ad0.png

把SE注意力模塊添加到Inception Module中與ResNet的殘差Module中,實(shí)現(xiàn)SE注意力版本的Inception與ResNet模型

ce2c47c0-f4f0-11ed-90ce-dac502259ad0.png

SE注意力模塊集成殘差的四種不同結(jié)構(gòu)設(shè)計(jì)

ce38368e-f4f0-11ed-90ce-dac502259ad0.png

CA注意力模塊

圖中最右側(cè)是CA注意力模塊、左側(cè)是SE注意力模塊、中間是CBAM注意力模塊、CA注意力通過(guò)坐標(biāo)信息嵌入和坐標(biāo)注意力生成兩個(gè)步驟把通道關(guān)系和長(zhǎng)程依賴(lài)關(guān)系精確編碼。

ce562cb6-f4f0-11ed-90ce-dac502259ad0.png

CBAM注意力模塊

ce77b624-f4f0-11ed-90ce-dac502259ad0.png

該圖顯示了如何把一個(gè)CBAM模塊集成到到一個(gè)殘差模塊中,實(shí)現(xiàn)殘差CBAM模塊,CBAM是集成了通道注意力與空間注意力、通道和空間注意力模塊生成首先是通過(guò)平均池化和最大池化分別生成通道與空間注意力的輸入,然后通過(guò)MLP與7x7卷積輸出通道子模塊和空間子模塊。

ce9a90ae-f4f0-11ed-90ce-dac502259ad0.png

ECA注意力模塊

通過(guò)全局均值池化(GAP)獲得的聚合通道特征,然后通過(guò)大小為k濾波器的快速1D卷積,然后重新構(gòu)建一個(gè)維的卷積輸出結(jié)果,乘以輸入的每個(gè)通通道數(shù)據(jù)作為輸出實(shí)現(xiàn)注意力機(jī)制為ECA。

cea72a44-f4f0-11ed-90ce-dac502259ad0.png

GAM注意力模塊

全局注意力模塊基于CBAM注意力模塊集成上重新設(shè)計(jì)通道與空間兩個(gè)子模塊實(shí)現(xiàn),其中通道注意力直接使用MLP實(shí)現(xiàn)、空間注意力通過(guò)兩個(gè)7乘7的卷積實(shí)現(xiàn),最終GAM注意力添加到ResNet網(wǎng)絡(luò)的效果相比SE注意力、CBAM注意力有明顯提升。

cedeb7fc-f4f0-11ed-90ce-dac502259ad0.png

cf023e52-f4f0-11ed-90ce-dac502259ad0.png

YOLOv57.0 注意力加持版本

cf24df20-f4f0-11ed-90ce-dac502259ad0.png






審核編輯:劉清

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 濾波器
    +關(guān)注

    關(guān)注

    158

    文章

    7596

    瀏覽量

    176585
  • ECA
    ECA
    +關(guān)注

    關(guān)注

    0

    文章

    7

    瀏覽量

    7626
  • Module
    +關(guān)注

    關(guān)注

    0

    文章

    63

    瀏覽量

    12833
  • MLP
    MLP
    +關(guān)注

    關(guān)注

    0

    文章

    57

    瀏覽量

    4183

原文標(biāo)題:五種即插即用的視覺(jué)注意力模塊

文章出處:【微信號(hào):CVSCHOOL,微信公眾號(hào):OpenCV學(xué)堂】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    即插即用和熱插拔的區(qū)別

    ,現(xiàn)在常見(jiàn)的PC設(shè)備基本都是“即插即用”的。熱插拔不一定是即插即用設(shè)備?!?b class='flag-5'>即插即用”和“熱插拔”是兩不同的概念,“即插即用”是系統(tǒng)(“軟”
    發(fā)表于 10-23 10:26

    基于SLH89F5162的左額電壓信號(hào)的注意力比拼

    項(xiàng)目計(jì)劃如下:利用帶電池的耳機(jī)式腦電檢測(cè)模塊讀出腦部注意力和放松度信號(hào),加以無(wú)線方式傳出(NRF,藍(lán)牙,紅外),利用安芯一號(hào)單片機(jī)做終端,以某種方式接受無(wú)線信號(hào),紅外或串口NRF等,將得到的腦部電壓
    發(fā)表于 10-17 15:46

    基于labview的注意力分配實(shí)驗(yàn)設(shè)計(jì)

    畢設(shè)要求做一個(gè)注意力分配實(shí)驗(yàn)設(shè)計(jì)。有些結(jié)構(gòu)完全想不明白。具體如何實(shí)現(xiàn)如下。一個(gè)大概5*5的燈組合,要求隨機(jī)亮。兩個(gè)聲音大小不同的音頻,要求隨機(jī)響,有大、小兩個(gè)選項(xiàng)。以上兩需要記錄并計(jì)算錯(cuò)誤率。體現(xiàn)在表格上。大家可不可以勞煩幫個(gè)忙,幫我構(gòu)思一下, 或者幫我做一下。拜托大家
    發(fā)表于 05-07 20:33

    PCI與即插即用

    PCI與即插即用 即插即用 是從英文“Plug and Play”翻譯過(guò)來(lái)的,縮寫(xiě)為 PnP 。即插即用功能只有在同時(shí)具備了符合以下4個(gè)條件時(shí)才可以:即插即
    發(fā)表于 12-09 13:51 ?2091次閱讀

    什么是即插即用

    什么是即插即用              支持即插即用是一使您可以快速簡(jiǎn)易安裝某硬件設(shè)備而無(wú)需安裝設(shè)備驅(qū)動(dòng)程序或重新
    發(fā)表于 12-28 11:17 ?2123次閱讀

    Helieon(TM)LED照明模塊即插即用

    Helieon(TM)LED照明模塊即插即用 摘要:Bridgelux與MolexIncorporated今日發(fā)布了首個(gè)針對(duì)LED照明技術(shù)的快速大規(guī)模市場(chǎng)應(yīng)用而設(shè)計(jì)和定價(jià)的LED照
    發(fā)表于 03-29 09:22 ?637次閱讀

    DeepMind為視覺(jué)問(wèn)題回答提出了一新的硬注意力機(jī)制

    然而,在基于梯度的學(xué)習(xí)框架(如深度學(xué)習(xí))中存在一個(gè)關(guān)鍵的缺點(diǎn):因?yàn)檫x擇要處理的信息的過(guò)程是離散化的,因此也就是不可微分的,所以梯度不能反向傳播到選擇機(jī)制中來(lái)支持基于梯度的優(yōu)化。目前研究人員正在努力來(lái)解決視覺(jué)注意力、文本注意力,乃
    的頭像 發(fā)表于 08-10 08:44 ?6139次閱讀

    北大研究者創(chuàng)建了一注意力生成對(duì)抗網(wǎng)絡(luò)

    同時(shí)我們還將完整的GAN結(jié)構(gòu)和我們網(wǎng)絡(luò)的部分相對(duì)比:A表示只有自動(dòng)編碼器,沒(méi)有注意力地圖;A+D表示沒(méi)有注意力自動(dòng)編碼器,也沒(méi)有注意力判別器;A+AD表示沒(méi)有注意力自動(dòng)編碼器,但是有
    的頭像 發(fā)表于 08-11 09:22 ?4865次閱讀

    通過(guò)引入硬注意力機(jī)制來(lái)引導(dǎo)學(xué)習(xí)視覺(jué)回答任務(wù)的研究

    此外,通過(guò)對(duì)特征向量的 L2 正則化處理來(lái)選擇重要性特征,我們的視覺(jué)問(wèn)答框架進(jìn)一步采用硬注意力機(jī)制進(jìn)行增強(qiáng)。我們將最初的版本成為硬注意力網(wǎng)絡(luò) HAN (Hard Attention Network
    的頭像 發(fā)表于 10-04 09:23 ?5372次閱讀

    深度分析NLP中的注意力機(jī)制

    注意力機(jī)制越發(fā)頻繁的出現(xiàn)在文獻(xiàn)中,因此對(duì)注意力機(jī)制的學(xué)習(xí)、掌握與應(yīng)用顯得十分重要。本文便對(duì)注意力機(jī)制做了較為全面的綜述。
    的頭像 發(fā)表于 02-17 09:18 ?3754次閱讀

    華南理工開(kāi)源VISTA:雙跨視角空間注意力機(jī)制實(shí)現(xiàn)3D目標(biāo)檢測(cè)SOTA

    我們提出了一新穎的即插即用融合模塊:雙跨視角空間注意力機(jī)制 (VISTA),以產(chǎn)生融合良好的多視角特征,以提高 3D 目標(biāo)檢測(cè)器的性能。我們提出的 VISTA 用卷積算子代替了 ML
    的頭像 發(fā)表于 04-07 09:39 ?1297次閱讀

    基于超大感受野注意力的超分辨率模型

    通過(guò)引入像素注意力,PAN在大幅降低參數(shù)量的同時(shí)取得了非常優(yōu)秀的性能。相比通道注意力與空域注意力,像素注意力是一更廣義的
    的頭像 發(fā)表于 10-27 13:55 ?1008次閱讀

    如何用番茄鐘提高注意力

    電子發(fā)燒友網(wǎng)站提供《如何用番茄鐘提高注意力.zip》資料免費(fèi)下載
    發(fā)表于 10-28 14:29 ?0次下載
    如何用番茄鐘提高<b class='flag-5'>注意力</b>

    計(jì)算機(jī)視覺(jué)中的注意力機(jī)制

    計(jì)算機(jī)視覺(jué)中的注意力機(jī)制 卷積神經(jīng)網(wǎng)絡(luò)中常用的Attention 參考 注意力機(jī)制簡(jiǎn)介與分類(lèi) 注意力機(jī)制(Attention Mechanism) 是機(jī)器學(xué)習(xí)中的一
    發(fā)表于 05-22 09:46 ?0次下載
    計(jì)算機(jī)<b class='flag-5'>視覺(jué)</b>中的<b class='flag-5'>注意力</b>機(jī)制

    基于YOLOv5s基礎(chǔ)上實(shí)現(xiàn)視覺(jué)注意力模塊的改進(jìn)

    基礎(chǔ)上實(shí)現(xiàn)視覺(jué)注意力模塊的改進(jìn),然后訓(xùn)練相同的輪次,橫向比較模型的精度。 YOLOv5添加注意
    的頭像 發(fā)表于 06-02 14:52 ?1356次閱讀
    基于YOLOv5s基礎(chǔ)上實(shí)現(xiàn)<b class='flag-5'>五</b><b class='flag-5'>種</b><b class='flag-5'>視覺(jué)</b><b class='flag-5'>注意力</b><b class='flag-5'>模塊</b>的改進(jìn)