0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于使用對(duì)比學(xué)習(xí)和條件變分自編碼器的新穎框架ADS-Cap

深度學(xué)習(xí)自然語言處理 ? 來源:深度學(xué)習(xí)自然語言處理 ? 作者:深度學(xué)習(xí)自然語言 ? 2022-11-03 14:30 ? 次閱讀

01

研究動(dòng)機(jī)

在本文中,我們研究了圖像描述(Image Captioning)領(lǐng)域一個(gè)新興的問題——圖像風(fēng)格化描述(Stylized Image Captioning)。隨著深度學(xué)習(xí)的發(fā)展,自動(dòng)圖像描述吸引了計(jì)算機(jī)視覺和自然語言處理領(lǐng)域研究者們的廣泛關(guān)注?,F(xiàn)在的圖像描述模型可以為圖像生成準(zhǔn)確的文本表述,但在日常生活中,人們?cè)诒磉_(dá)想法的同時(shí)通常還會(huì)帶有自己的情感或者風(fēng)格,為此研究者們提出了圖像風(fēng)格化描述任務(wù),希望模型在準(zhǔn)確描述視覺內(nèi)容的同時(shí)也能在描述中融入指定的語言風(fēng)格。例如對(duì)于圖1展示的圖片,下面列出了傳統(tǒng)的事實(shí)性描述和四種風(fēng)格帶有風(fēng)格的描述,即幽默的、浪漫的、積極的和消極的,其中畫紅線的部分是體現(xiàn)風(fēng)格的部分。圖像風(fēng)格化描述也有許多下游應(yīng)用,例如在聊天機(jī)器人中生成更吸引用戶的圖像描述、以及在社交媒體上通過有吸引力的描述啟發(fā)用戶。

d14c6642-5b30-11ed-a3b6-dac502259ad0.png圖1圖像風(fēng)格化描述(Stylized Image Captioning)任務(wù)

該任務(wù)的一個(gè)困難在于,收集圖片和對(duì)應(yīng)人工標(biāo)注的風(fēng)格化描述是代價(jià)高昂的,為此我們希望能夠僅利用非成對(duì)的風(fēng)格文本語料庫,讓圖像描述模型在這些風(fēng)格文本上自動(dòng)學(xué)習(xí)語言風(fēng)格知識(shí)。因此在訓(xùn)練時(shí),我們提供事實(shí)性的圖像-描述對(duì)數(shù)據(jù)集以及不包含圖片的非成對(duì)的風(fēng)格文本語料庫,希望模型通過前者學(xué)習(xí)如何準(zhǔn)確描述圖像內(nèi)容,通過后者學(xué)習(xí)如何在描述中融入指定語言風(fēng)格。

在上述設(shè)定下,該任務(wù)的一個(gè)關(guān)鍵問題是:如何高效利用成對(duì)的事實(shí)性數(shù)據(jù)和非成對(duì)的風(fēng)格數(shù)據(jù)。多數(shù)以往工作遵循傳統(tǒng)的方法論:首先在大規(guī)模的成對(duì)事實(shí)性數(shù)據(jù)上預(yù)訓(xùn)練一個(gè)編碼器-解碼器模型,之后在非成對(duì)的風(fēng)格數(shù)據(jù)上,以語言模型的方式微調(diào)解碼器,例如StyleNet[1]和MSCap[2]。然而,我們認(rèn)為在非成對(duì)風(fēng)格數(shù)據(jù)上按照語言模型微調(diào)會(huì)導(dǎo)致模型過于關(guān)注語言風(fēng)格,而忽略了生成描述和圖像內(nèi)容的一致性,因?yàn)樵谖⒄{(diào)時(shí)解碼器完全與視覺輸入無關(guān)。這最終導(dǎo)致了圖像風(fēng)格化描述模型無法生成切合圖像內(nèi)容的描述。MemCap[3]提出利用場景圖作為中間媒介,將成對(duì)和非成對(duì)數(shù)據(jù)的訓(xùn)練過程統(tǒng)一為根據(jù)場景圖生成描述;然而,由于不同模態(tài)間的差異,文本和圖像抽取的場景圖依然是不一致的,這導(dǎo)致模型在測試時(shí)仍然無法很好地兼顧描述圖像內(nèi)容的準(zhǔn)確性和融入語言風(fēng)格。

另一個(gè)重要問題是,目前的工作基本上忽略了生成風(fēng)格表達(dá)的多樣性。如圖2所示,對(duì)于三張相似場景的圖片,基線模型生成了完全相同的風(fēng)格短語“to meet his lover”,而當(dāng)為一張圖片生成多個(gè)風(fēng)格化描述時(shí),基線模型生成的風(fēng)格表述也缺乏變化。這樣的結(jié)果極大偏離了圖像風(fēng)格化描述任務(wù)的初衷:我們希望得到生動(dòng)多樣的描述,而不僅僅是幾個(gè)固定的表達(dá)。我們認(rèn)為造成這一問題的原因是風(fēng)格語料規(guī)模較小,使得傳統(tǒng)的編碼器-解碼器模型難以生成多樣的風(fēng)格模式。

d16c63de-5b30-11ed-a3b6-dac502259ad0.png圖2:傳統(tǒng)編碼器-解碼器框架難以建模多樣化的風(fēng)格表達(dá)

為了解決上面提到的兩方面問題,我們提出了全新的ADS-Cap框架:通過對(duì)比學(xué)習(xí)對(duì)齊圖像文本兩種模態(tài),使模型能夠?qū)⒊蓪?duì)數(shù)據(jù)和非成對(duì)數(shù)據(jù)統(tǒng)一為條件生成的模式,使得模型能夠在準(zhǔn)確描述圖像內(nèi)容的同時(shí)融入指定語言風(fēng)格;通過條件變分自編碼器架構(gòu),引導(dǎo)隱空間記憶多種多樣的風(fēng)格表達(dá),有效增強(qiáng)生成時(shí)的多樣性。

02

貢獻(xiàn)

1.我們提出了一個(gè)新穎的使用對(duì)比學(xué)習(xí)和條件變分自編碼器的圖像風(fēng)格化描述框架ADS-Cap。

2.當(dāng)使用非成對(duì)風(fēng)格文本語料庫訓(xùn)練時(shí),對(duì)比學(xué)習(xí)模塊有效地提升了生成描述與圖像內(nèi)容的一致性。

3.條件變分自編碼器框架通過在隱空間中記憶風(fēng)格表達(dá)并在測試時(shí)采樣,顯著提升了圖像風(fēng)格化描述生成的多樣性。

4.在兩個(gè)benchmark圖像風(fēng)格化描述數(shù)據(jù)集上的實(shí)驗(yàn)結(jié)果表明,我們的方法在準(zhǔn)確性和多樣性上達(dá)到SOTA。

03

解決方案

整體模型架構(gòu)如下圖3所示,主要由一個(gè)條件變分自編碼器框架和一個(gè)對(duì)比學(xué)習(xí)模塊組成。藍(lán)色部分代表模型的輸入和輸出,黃色部分代表模型的可學(xué)習(xí)參數(shù),紅色部分是我們模型編碼風(fēng)格表達(dá)的隱空間。

d1818e58-5b30-11ed-a3b6-dac502259ad0.png圖3:ADS-Cap框架示意圖

3.1對(duì)比學(xué)習(xí)

我們首先通過一個(gè)目標(biāo)對(duì)象詞詞表(來自VG數(shù)據(jù)集),從非成對(duì)數(shù)據(jù)的描述中抽取目標(biāo)對(duì)象詞,這樣我們就能夠?qū)⒊蓪?duì)數(shù)據(jù)和非成對(duì)數(shù)據(jù)的訓(xùn)練統(tǒng)一為條件生成的模式:對(duì)于成對(duì)的事實(shí)性數(shù)據(jù),我們根據(jù)圖像特征生成事實(shí)性的描述;對(duì)于非成對(duì)的風(fēng)格數(shù)據(jù),我們根據(jù)目標(biāo)對(duì)象詞生成風(fēng)格化的描述。然而,在測試時(shí),我們需要根據(jù)圖像特征生成風(fēng)格化的描述,如下圖4黃色箭頭所示。為此我們的解決方案是,使用對(duì)比學(xué)習(xí)將圖像特征和目標(biāo)對(duì)象詞特征編碼到同一個(gè)共享的多模態(tài)特征空間,從而對(duì)于解碼器來說,根據(jù)圖像生成和根據(jù)目標(biāo)對(duì)象詞生成將不再有差異。

d194888c-5b30-11ed-a3b6-dac502259ad0.png圖4:使用非成對(duì)風(fēng)格文本語料庫帶來的問題

具體而言,對(duì)比學(xué)習(xí)損失最大化一個(gè)batch內(nèi)匹配樣本間的余弦相似度,同時(shí)最小化不匹配樣本間的余弦相似度[4],從而對(duì)齊圖像和目標(biāo)對(duì)象詞兩種模態(tài)的特征到同一個(gè)共享的多模態(tài)特征空間中。

d1aacf66-5b30-11ed-a3b6-dac502259ad0.png

3.2條件變分自編碼器框架

為了提高生成描述的多樣性,我們使用條件變分自編碼器(CVAE)代替了傳統(tǒng)的編碼器-解碼器架構(gòu),主要是因?yàn)镃VAE在許多生成任務(wù)上多樣性表現(xiàn)較好,而且對(duì)于圖像風(fēng)格化描述任務(wù)來說,可以利用隱空間自動(dòng)記憶多種多樣的風(fēng)格表達(dá),從而在測試時(shí)在隱空間不同區(qū)域采樣就可以生成帶有不同風(fēng)格短語的描述。如圖5所示,CVAE的編碼器將樣本的風(fēng)格表達(dá)編碼到隱變量,解碼器通過該隱變量輔助嘗試還原輸入樣本。之后,CVAE的訓(xùn)練原理也就是KL散度損失和重建損失使得各種各樣的風(fēng)格表達(dá)能夠均勻地分布在隱空間中。

除此之外,我們?cè)陔[變量上增加了一個(gè)風(fēng)格分類器,以隱變量為輸入,預(yù)測該隱變量對(duì)應(yīng)樣本的風(fēng)格。這樣一個(gè)輔助損失有兩方面好處,一個(gè)是可以引導(dǎo)隱空間編碼與風(fēng)格相關(guān)的信息;另外這個(gè)單層神經(jīng)網(wǎng)絡(luò)+softmax的分類器實(shí)際上也將整個(gè)隱空間按風(fēng)格劃分了,這樣在測試時(shí),我們就可以通過拒絕采樣得到我們想要風(fēng)格的隱變量。

d1b943f2-5b30-11ed-a3b6-dac502259ad0.jpg圖5:條件變分自編碼器框架及風(fēng)格分類器

04

實(shí)驗(yàn)

我們?cè)趫D像風(fēng)格化描述的兩個(gè)benchmark數(shù)據(jù)集FlickrStyle10K[1]和SentiCap[5]上進(jìn)行實(shí)驗(yàn)。前者包含幽默和浪漫兩種風(fēng)格,各7000張圖片和對(duì)應(yīng)的風(fēng)格化描述;后者包含積極和消極兩種風(fēng)格,共2360張圖片以及9513個(gè)風(fēng)格化描述。數(shù)據(jù)集劃分以及實(shí)驗(yàn)設(shè)定上,我們與MSCap[2]和MemCap[3]保持一致。

4.1內(nèi)容準(zhǔn)確性&風(fēng)格準(zhǔn)確性

在性能方面,我們首先比較了之前工作采用的內(nèi)容準(zhǔn)確率和風(fēng)格準(zhǔn)確率。其中內(nèi)容準(zhǔn)確率采用Bleu、CIDEr這類計(jì)算和參考句子間n元組重復(fù)度的指標(biāo),風(fēng)格準(zhǔn)確率則使用生成句子的困惑度ppl、以及一個(gè)預(yù)訓(xùn)練好的風(fēng)格判別器給出的風(fēng)格準(zhǔn)確率cls??梢钥吹饺绫?所示,我們的方法相比之前工作在幾乎所有指標(biāo)上取得了顯著的提升,特別是在FlickrStyle這個(gè)風(fēng)格更復(fù)雜的數(shù)據(jù)集上。這也側(cè)面證實(shí)了以往工作忽略了生成描述和圖像內(nèi)容一致性這個(gè)問題,而我們的方法能夠在融入語言風(fēng)格的同時(shí)保持和圖像內(nèi)容的一致性。

表1:內(nèi)容準(zhǔn)確性和風(fēng)格準(zhǔn)確性d1ca81d0-5b30-11ed-a3b6-dac502259ad0.png

4.2多樣性

我們比較將我們的方法與編碼器-解碼器基線模型在兩類多樣性上進(jìn)行了比較。圖6展示了兩類多樣性以及我們方法的效果。

d1dcb1e8-5b30-11ed-a3b6-dac502259ad0.png圖6:兩類多樣性及樣例展示

第一類是圖像間的多樣性(Diversity across Images),也就是我們希望同一場景下不同圖像生成的風(fēng)格化描述應(yīng)該是多樣的。為此我們考慮了:1.唯一性,不同的風(fēng)格短語戰(zhàn)全部風(fēng)格短語的比例;2.均勻性,風(fēng)格詞概率分布的熵(下式)。從下表2結(jié)果中可以看到,在七種典型場景下(各種人物以及動(dòng)物),我們的CVAE模型均顯著高于編碼器-解碼器基線,但距離人類的表現(xiàn)還有不少距離。

d1f805e2-5b30-11ed-a3b6-dac502259ad0.png

表2:相似場景下風(fēng)格化描述多樣性d206200a-5b30-11ed-a3b6-dac502259ad0.png

第二類是經(jīng)典的為一張圖像生成多個(gè)風(fēng)格化描述的多樣性。為此我們考慮了圖像描述領(lǐng)域中量此類多樣性的兩個(gè)指標(biāo):Distinct和Div-n,前者計(jì)算不同的風(fēng)格短語的比例,后者計(jì)算不同的n元組的比例。從表2中可以看到,我們的方法同樣優(yōu)于基線模型。

表3:為一張圖像生成多個(gè)風(fēng)格化描述的多樣性d2272304-5b30-11ed-a3b6-dac502259ad0.png

4.3效果分析

為了展示分析對(duì)比學(xué)習(xí)和條件變分自編碼器框架的效果,我們進(jìn)行了一些可視化。

圖7給出了使用對(duì)比學(xué)習(xí)前后的特征空間分析,綠色代表的是目標(biāo)對(duì)象詞特征,紅色是圖像特征??梢钥吹綄?duì)比學(xué)習(xí)很好地對(duì)齊了兩類特征(例如狗的目標(biāo)對(duì)象詞特征和對(duì)應(yīng)圖像特征十分相近),從而成功統(tǒng)一了成對(duì)事實(shí)性數(shù)據(jù)和非成對(duì)風(fēng)格數(shù)據(jù)的訓(xùn)練。

d2408b78-5b30-11ed-a3b6-dac502259ad0.png圖7:對(duì)比學(xué)習(xí)效果

如圖8所示,訓(xùn)練好的CVAE隱空間實(shí)際上被按照風(fēng)格劃分為不同的區(qū)域,并且在每個(gè)區(qū)域中編碼了多種多樣的風(fēng)格表達(dá),例如對(duì)于浪漫的風(fēng)格,這里展示了其中幾個(gè)點(diǎn)對(duì)應(yīng)的風(fēng)格表達(dá),有enjoying the beauty of nature、with full joy等等;因此,測試時(shí)在每個(gè)區(qū)域中采樣即可得到多樣化的風(fēng)格描述。

d25a58e6-5b30-11ed-a3b6-dac502259ad0.png圖8:條件變分自編碼器隱空間

05

總結(jié)

本工作為圖像風(fēng)格化描述任務(wù)提出了一個(gè)使用對(duì)比學(xué)習(xí)和條件變分自編碼器的新穎框架ADS-Cap。我們的模型能夠高效地利用非成對(duì)風(fēng)格文本語料庫訓(xùn)練,并能夠生成視覺內(nèi)容準(zhǔn)確、文本風(fēng)格可控且風(fēng)格表達(dá)多樣的圖像風(fēng)格化描述。在兩個(gè)圖像風(fēng)格化描述benchmark上的實(shí)驗(yàn)證明了我們方法的有效性。

審核編輯:彭靜
聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 編碼器
    +關(guān)注

    關(guān)注

    44

    文章

    3529

    瀏覽量

    133309
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3032

    瀏覽量

    48363
  • 自然語言
    +關(guān)注

    關(guān)注

    1

    文章

    279

    瀏覽量

    13295

原文標(biāo)題:NLPCC'22 | 一種兼具準(zhǔn)確性和多樣性的圖像風(fēng)格化描述生成框架

文章出處:【微信號(hào):zenRRan,微信公眾號(hào):深度學(xué)習(xí)自然語言處理】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    基于自編碼器的異常小區(qū)檢測

    ;另一個(gè)是正則化損失(regularization loss),它有助于學(xué)習(xí)具有良好結(jié)構(gòu)的潛在空間,并可以降低在訓(xùn)練數(shù)據(jù)上的過擬合。  2.3基于自編碼器的異常小區(qū)檢測  基于
    發(fā)表于 12-03 15:06

    是什么讓自編碼器成為如此成功的多媒體生成工具呢?

    標(biāo)準(zhǔn)自編碼器學(xué)習(xí)生成緊湊的數(shù)據(jù)表達(dá)并重建輸入數(shù)據(jù),然而除了像去噪自編碼器等為數(shù)不多的應(yīng)用外,它的應(yīng)用卻極其有限。其根本原因在于自編碼器將輸入轉(zhuǎn)換為隱含空間中的表達(dá)并不是連續(xù)的,使得其
    的頭像 發(fā)表于 04-19 16:48 ?1.3w次閱讀
    是什么讓<b class='flag-5'>變</b><b class='flag-5'>分</b><b class='flag-5'>自編碼器</b>成為如此成功的多媒體生成工具呢?

    自編碼器是什么?有什么用

    自動(dòng)編碼器是一種無監(jiān)督的神經(jīng)網(wǎng)絡(luò)模型,它可以學(xué)習(xí)到輸入數(shù)據(jù)的隱含特征,這稱為編碼(coding),同時(shí)用學(xué)習(xí)到的新特征可以重構(gòu)出原始輸入數(shù)據(jù),稱之為解碼(decoding)。
    的頭像 發(fā)表于 08-02 16:47 ?1.8w次閱讀

    自編碼器介紹

    自編碼器若僅要求X≈Y,且對(duì)隱藏神經(jīng)元進(jìn)行稀疏約束,從而使大部分節(jié)點(diǎn)值為0或接近0的無效值,便得到稀疏自動(dòng)編碼算法。一般情況下,隱含層的神經(jīng)元數(shù)應(yīng)少于輸入X的個(gè)數(shù),因?yàn)榇藭r(shí)才能保證這個(gè)網(wǎng)絡(luò)結(jié)構(gòu)的價(jià)值。
    發(fā)表于 06-11 15:07 ?4859次閱讀

    稀疏自編碼器及TensorFlow實(shí)現(xiàn)詳解

     稀疏自編碼器(又稱稀疏自動(dòng)編碼機(jī))中,重構(gòu)誤差中添加了一個(gè)稀疏懲罰,用來限定任何時(shí)刻的隱藏層中并不是所有單元都被激活。如果 m 是輸入模式的總數(shù),那么可以定義一個(gè)參數(shù) ρ_hat,用來表示每個(gè)隱藏層單元的行為(平均激活多少次)。
    發(fā)表于 06-11 16:45 ?3781次閱讀
    稀疏<b class='flag-5'>自編碼器</b>及TensorFlow實(shí)現(xiàn)詳解

    基于自編碼器的海面艦船軌跡預(yù)測算法

    海面艦船的軌跡預(yù)測對(duì)預(yù)測精度和實(shí)時(shí)性具有較高要求,而艦船軌跡數(shù)據(jù)特征的高復(fù)雜度特性,導(dǎo)致傳統(tǒng)預(yù)測算法精度低、耗時(shí)長,難以達(dá)到良好的預(yù)測效果。為此,提出一種基于自編碼器的海面艦船軌跡預(yù)測算法。將
    發(fā)表于 03-30 09:53 ?5次下載
    基于<b class='flag-5'>變</b><b class='flag-5'>分</b><b class='flag-5'>自編碼器</b>的海面艦船軌跡預(yù)測算法

    自編碼器基礎(chǔ)理論與實(shí)現(xiàn)方法、應(yīng)用綜述

    自編碼器是深度學(xué)習(xí)中的一種非常重要的無監(jiān)督學(xué)習(xí)方法,能夠從大量無標(biāo)簽的數(shù)據(jù)中自動(dòng)學(xué)習(xí),得到蘊(yùn)含在數(shù)據(jù)中的有效特征。因此,自編碼方法近年來受到
    發(fā)表于 03-31 11:24 ?9次下載
    <b class='flag-5'>自編碼器</b>基礎(chǔ)理論與實(shí)現(xiàn)方法、應(yīng)用綜述

    一種多通道自編碼器深度學(xué)習(xí)的入侵檢測方法

      針對(duì)現(xiàn)有的入侵檢測方法在檢測準(zhǔn)確率和誤報(bào)率方面存在的不足,提岀了一種多通道自編碼器深度學(xué)習(xí)的入侵檢測方法。該方法分為無監(jiān)督學(xué)習(xí)和有監(jiān)督學(xué)習(xí)兩個(gè)階段:首先分別采用正常流量和攻擊流量訓(xùn)
    發(fā)表于 04-07 15:23 ?7次下載
    一種多通道<b class='flag-5'>自編碼器</b>深度<b class='flag-5'>學(xué)習(xí)</b>的入侵檢測方法

    一種基于自編碼器的人臉圖像修復(fù)方法

    基于卷積神經(jīng)網(wǎng)絡(luò)的人臉圖像修復(fù)技術(shù)在刑事偵破、文物保護(hù)及影視特效等領(lǐng)域有著重要的應(yīng)用。但現(xiàn)有方法存在著圖像修復(fù)結(jié)果不夠清晰以及結(jié)果多樣化不足等缺點(diǎn),為此,提出了一種基于自編碼器的人臉圖像修復(fù)
    發(fā)表于 04-21 10:51 ?10次下載
    一種基于<b class='flag-5'>變</b><b class='flag-5'>分</b><b class='flag-5'>自編碼器</b>的人臉圖像修復(fù)方法

    基于自編碼器的網(wǎng)絡(luò)表示學(xué)習(xí)方法

    ,將這些信息融入到網(wǎng)絡(luò)表示學(xué)習(xí)過程中,有助于提升下游任務(wù)的性能。但是針對(duì)不同的應(yīng)用場景,結(jié)構(gòu)和屬性信息并不總是線性相關(guān),而且它們都是高度非線性的數(shù)據(jù)。提岀一種基于自編碼器的網(wǎng)絡(luò)表示
    發(fā)表于 05-12 14:50 ?27次下載

    結(jié)合深度學(xué)習(xí)自編碼器端到端物理層優(yōu)化方案

    5G規(guī)模化商用可提供髙速低延時(shí)的通信服務(wù),但由于逐塊設(shè)計(jì)的通信模型可解釋性程度較低,增加了其物理層優(yōu)化的復(fù)雜度。針對(duì)該問題,利用深度學(xué)習(xí)在結(jié)構(gòu)化信息表示和數(shù)據(jù)提取上的優(yōu)勢(shì),在其基礎(chǔ)上提出一種自編碼器
    發(fā)表于 05-24 15:18 ?7次下載

    自編碼器神經(jīng)網(wǎng)絡(luò)應(yīng)用及實(shí)驗(yàn)綜述

    自編碼器是深度學(xué)習(xí)中的一種非常重要的無監(jiān)督學(xué)習(xí)方法,能夠從大量無標(biāo)簽的數(shù)據(jù)中自動(dòng)學(xué)習(xí),得到蘊(yùn)含在數(shù)據(jù)中的有效特征。因此,自編碼方法近年來受到
    發(fā)表于 06-07 16:38 ?7次下載

    基于交叉熵?fù)p失函欻的深度自編碼器診斷模型

    對(duì)小類別樣本的學(xué)習(xí)。尤其當(dāng)故障樣本數(shù)極少時(shí),此問題更突岀。針對(duì)這饣問題,提岀一種基于改進(jìn)交叉熵?fù)p失函欻的深度自編碼器的診斷模型,首先提取振動(dòng)數(shù)據(jù)的小波包能量,其次將小波包能量輸入到深度自編碼器中,最后通過SⅥa分類
    發(fā)表于 06-18 16:49 ?9次下載

    自編碼器 AE(AutoEncoder)程序

    原文鏈接 1.程序講解 (1)香草編碼器 在這種自編碼器的最簡單結(jié)構(gòu)中,只有三個(gè)網(wǎng)絡(luò)層,即只有一個(gè)隱藏層的神經(jīng)網(wǎng)絡(luò)。它的輸入和輸出是相同的,可通過使用Adam優(yōu)化和均方誤差損失函數(shù),來學(xué)習(xí)
    的頭像 發(fā)表于 01-11 17:29 ?1188次閱讀
    <b class='flag-5'>自編碼器</b> AE(AutoEncoder)程序

    自編碼器的原理和類型

    自編碼器(Autoencoder, AE)是一種無監(jiān)督學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)模型,它通過編碼器和解碼的組合,實(shí)現(xiàn)了對(duì)輸入數(shù)據(jù)的壓縮和重構(gòu)。自編碼器
    的頭像 發(fā)表于 07-09 11:25 ?553次閱讀