0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

Dynamic ReLU:根據(jù)輸入動態(tài)確定的ReLU

冬至子 ? 來源:思否AI ? 作者:思否AI ? 2023-09-01 17:28 ? 次閱讀

這是我最近才看到的一篇論文,它提出了動態(tài)ReLU (Dynamic ReLU, DY-ReLU),可以將全局上下文編碼為超函數(shù),并相應(yīng)地調(diào)整分段線性激活函數(shù)。

與傳統(tǒng)的ReLU相比,DY-ReLU的額外計算成本可以忽略不計,但表示能力明顯增強,并且實現(xiàn)簡單,所以可以非常簡單的對我們現(xiàn)有的模型進行修改。

Dynamic ReLU (DY-ReLU)

對于給定的輸入向量(或張量)x,DY-ReLU被定義為具有可學(xué)習(xí)參數(shù)θ(x)的函數(shù)fθ(x)(x),該參數(shù)適應(yīng)于輸入x,它包括兩個功能:

超函數(shù)θ(x):用于計算激活函數(shù)的參數(shù)。

激活函數(shù)fθ(x)(x):使用參數(shù)θ(x)生成所有通道的激活。

1、函數(shù)定義

設(shè)傳統(tǒng)的或靜態(tài)的ReLU為y = max(x, 0)。ReLU可以推廣為每個通道c的參數(shù)分段線性函數(shù)。

其中coeffcients ( akc , bkc )是超函數(shù)(x)的輸出,如下:

其中K是函數(shù)的個數(shù),C是通道的個數(shù)。論文中K=2。

2、超函數(shù)θ(x)的實現(xiàn)

使用輕量級網(wǎng)絡(luò)對超函數(shù)進行建模,這個超函數(shù)類似于SENet中的SE模塊(稍后會介紹)。

輸出有2KC個元素,對應(yīng)于a和b的殘差。2σ(x)-1用于對-1到1之間的殘差進行歸一化,其中σ(x)表示s型函數(shù)。最終輸出計算為初始化和殘差之和,如下所示:

其中λ是標量,這個公式也就是我們上面的圖

3、與先前研究的關(guān)系

可以看到DY-ReLU的三種特殊情況相當于ReLU、Leaky ReLU和PReLU。

4、DY-ReLU的變體

DY-ReLU-A:激活函數(shù)是空間和通道共享的。

DY-ReLU-B:激活函數(shù)是空間共享和通道相關(guān)的。

DY-ReLU-C:激活的是空間和通道分開的。

結(jié)果展示

1、消融研究

所有三種變化都比基線有所改善,但通道分開的DY-ReLU(變化B和C)明顯優(yōu)于通道共享的DY-ReLU(變化A)。

所以根據(jù)上面結(jié)果,使用DY-ReLU-B進行ImageNet分類,使用DY-ReLU-C進行COCO關(guān)鍵點檢測。

2、ImageNet分類

使用MobileNetV2 (×0.35和×1.0), 用不同的激活函數(shù)代替ReLU。所提出的方法明顯優(yōu)于所有先前的工作,包括具有更多計算成本的Maxout。這表明DY-ReLU不僅具有更強的表示能力,而且計算效率高。

上圖繪制了5萬張驗證圖像在不同區(qū)塊(從低到高)的DY-ReLU輸入輸出值。可以看到學(xué)習(xí)到的DY-ReLU在特征上是動態(tài)的,因為對于給定的輸入x,激活值(y)在一個范圍內(nèi)(藍點覆蓋的范圍)變化。

下圖分析DY-ReLU中兩段之間的夾角(即斜率差|a1c-a2c|)。激活函數(shù)在較高水平上具有較低的彎曲。

3、COCO關(guān)鍵點估計

當使用MobileNetV3作為骨干時,刪除SENet模塊,使用DY-ReLU替代ReLU和h-Swish后,結(jié)果也有提高。

總結(jié)

可以看到,只是使用DY-ReLU替換現(xiàn)有的激活函數(shù),模型的表現(xiàn)明顯優(yōu)于基線模型。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    45

    文章

    3575

    瀏覽量

    134006
收藏 人收藏

    評論

    相關(guān)推薦

    caffe源碼解讀《十三》relu

    編程語言行業(yè)芯事經(jīng)驗分享
    蒙特卡洛家的樹
    發(fā)布于 :2022年03月09日 13:41:01

    【NanoPi K1 Plus試用體驗】深度學(xué)習(xí)---快速開始序貫(Sequential)模型

    ('relu'),Dense(10),Activation('softmax'),])也可以通過.add()方法一個個的將layer加入模型中:model = Sequential()model.add
    發(fā)表于 07-20 15:55

    Keras可視化神經(jīng)網(wǎng)絡(luò)架構(gòu)的4種方法

    Boards 要求用戶在架構(gòu)可視化之前根據(jù)準確的數(shù)據(jù)訓(xùn)練模型。在開始進行可視化之前,我們先需要安裝相應(yīng)的包:pip install visualkeras pip install ann_visualizer
    發(fā)表于 11-02 14:55

    bottom-up多層規(guī)約圖融合策略資料介紹

    (例如Conv+ReLU)則受限于供應(yīng)商API的支持程度?! ‰S著AI模型在各領(lǐng)域的發(fā)展、成熟和落地,模型推理在具體設(shè)備上的性能變得越發(fā)重要,17年到18年,業(yè)界出現(xiàn)了大量面向DL模型推理的計算框架,算子
    發(fā)表于 11-09 17:33

    深度學(xué)習(xí)在醫(yī)學(xué)圖像分割與病變識別中的應(yīng)用實戰(zhàn)

    ): inputs = Input(input_shape) # 編碼器部分 conv1 = Conv2D(32, (3, 3), activation=\'relu\', padding
    發(fā)表于 09-04 11:11

    【KV260視覺入門套件試用體驗】Vitis AI 通過遷移學(xué)習(xí)訓(xùn)練自定義模型

    是ResNet系列中最簡單的一個模型,共有18層,其中包括: 一個7×7的卷積層,輸出通道數(shù)為64,步幅為2,后接批量歸一化(Batch Normalization)和ReLU激活函數(shù)。 一個3×3的最大池
    發(fā)表于 10-16 15:03

    技嘉 主板Dynamic Energy Saver動態(tài)節(jié)能工

    技嘉 主板Dynamic Energy Saver動態(tài)節(jié)能工具B8.0128.1版.zip
    發(fā)表于 01-27 14:27 ?15次下載

    一種基于對抗訓(xùn)練的圖像翻譯技術(shù),為裸女們自動“穿”上比基尼

    對于生成器,我們測試了兩種流行的結(jié)構(gòu)。首先我們測試了 9-Blocks ResNet 結(jié)構(gòu)的生成器,這種結(jié)構(gòu)由帶殘余連接的自編碼器構(gòu)成,我們在每層的卷積后采用 ReLU 激活函數(shù)和 IN 正則化
    的頭像 發(fā)表于 07-23 09:11 ?3606次閱讀

    深度ReLU網(wǎng)絡(luò)的訓(xùn)練動態(tài)過程及其對泛化能力的影響

    基于這個框架,我們試圖用統(tǒng)一的觀點來解釋這些令人費解的經(jīng)驗現(xiàn)象。本文使用師生設(shè)置,其中給過度參數(shù)化的深度學(xué)生ReLU網(wǎng)絡(luò)的標簽,是具有相同深度和未知權(quán)重的固定教師ReLU網(wǎng)絡(luò)的輸出(圖1(a))。在這個角度來看,隱藏的學(xué)生節(jié)點將隨機初始化為不同的激活區(qū)域。(圖2(a))
    的頭像 發(fā)表于 06-15 10:48 ?3317次閱讀
    深度<b class='flag-5'>ReLU</b>網(wǎng)絡(luò)的訓(xùn)練<b class='flag-5'>動態(tài)</b>過程及其對泛化能力的影響

    ngx_dynamic_limit_req_module IP動態(tài)鎖定工具

    ./oschina_soft/ngx_dynamic_limit_req_module.zip
    發(fā)表于 05-07 09:29 ?0次下載
    ngx_<b class='flag-5'>dynamic</b>_limit_req_module IP<b class='flag-5'>動態(tài)</b>鎖定工具

    在PyTorch中使用ReLU激活函數(shù)的例子

    PyTorch已為我們實現(xiàn)了大多數(shù)常用的非線性激活函數(shù),我們可以像使用任何其他的層那樣使用它們。讓我們快速看一個在PyTorch中使用ReLU激活函數(shù)的例子:
    的頭像 發(fā)表于 07-06 15:27 ?2470次閱讀

    RPN:Region Proposal Networks (區(qū)域候選網(wǎng)絡(luò))

    圖片在輸入網(wǎng)絡(luò)后,依次經(jīng)過一系列卷積+ReLU得到的51×39×256維feature map,準備后續(xù)用來選取proposal。
    的頭像 發(fā)表于 01-11 16:55 ?1344次閱讀
    RPN:Region Proposal Networks (區(qū)域候選網(wǎng)絡(luò))

    Relu算子的介紹

    Relu是一種非線性激活函數(shù),它的特點有運算簡單,不會在梯度處出現(xiàn)梯度消失的情況,而且它在一定程度上能夠防止深度學(xué)習(xí)模型在訓(xùn)練中發(fā)生的過擬合現(xiàn)象。
    的頭像 發(fā)表于 01-11 17:07 ?1410次閱讀

    結(jié)合卷積層來創(chuàng)建一個完整的推理函數(shù)

    首先輸入一張1x28x28的圖片,然后兩次通過Conv2d -> ReLU -> MaxPool2d提取特征,最后轉(zhuǎn)為linear,> ReLU -> Linear為10階向量值。
    的頭像 發(fā)表于 03-13 09:22 ?697次閱讀

    深度ReLU網(wǎng)絡(luò)的對應(yīng)淺層網(wǎng)絡(luò)

    ? 只要你用了ReLU,我們就是好朋就是“淺度學(xué)習(xí)”。 最近有研究證明,所有基于ReLU的深度神經(jīng)網(wǎng)絡(luò)都可以重寫為功能相同的3層神經(jīng)網(wǎng)絡(luò)。 ? 基于這個證明,倫敦國王學(xué)院的研究團隊還提出一種為任意
    的頭像 發(fā)表于 07-03 14:13 ?524次閱讀
    深度<b class='flag-5'>ReLU</b>網(wǎng)絡(luò)的對應(yīng)淺層網(wǎng)絡(luò)