0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

清華大學(xué)聯(lián)合提出了用于半監(jiān)督學(xué)習(xí)的圖隨機神經(jīng)網(wǎng)絡(luò)

ss ? 來源:學(xué)術(shù)頭條 ? 作者:學(xué)術(shù)頭條 ? 2020-12-01 15:25 ? 次閱讀

導(dǎo)讀:在 NeurIPS 2020 上,清華大學(xué)聯(lián)合微眾銀行、微軟研究院以及博世人工智能中心提出了 Graph Random Neural Network (GRAND),一種用于圖半監(jiān)督學(xué)習(xí)的新型圖神經(jīng)網(wǎng)絡(luò)框架。在模型架構(gòu)上,GRAND 提出了一種簡單有效的圖數(shù)據(jù)增強方法 Random Propagation,用來增強模型魯棒性及減輕過平滑?;?Random Propagation,GRAND 在優(yōu)化過程中使用一致性正則(Consistency Regularization)來增強模型的泛化性,即除了優(yōu)化標(biāo)簽節(jié)點的 cross-entropy loss 之外,還會優(yōu)化模型在無標(biāo)簽節(jié)點的多次數(shù)據(jù)增強的預(yù)測一致性。GRAND 不僅在理論上有良好的解釋,還在三個公開數(shù)據(jù)集上超越了 14 種不同的 GNN 模型,取得了 SOTA 的效果。

這項研究被收入為 NeurIPS 2020 的 Oral paper (105/9454)。

論文名稱:GraphRandom Neural Network for Semi-Supervised Learning on Graphs

研究背景

圖是用于建模結(jié)構(gòu)化和關(guān)系數(shù)據(jù)的一種通用的數(shù)據(jù)結(jié)構(gòu)。在這項工作中,我們重點研究基于圖的半監(jiān)督學(xué)習(xí)問題,這個問題的輸入是一個節(jié)點帶屬性的無向圖,其中只有一小部分節(jié)點有標(biāo)簽,我們的目的是要根據(jù)節(jié)點屬性,圖的結(jié)構(gòu)去預(yù)測無標(biāo)簽節(jié)點的標(biāo)簽。近幾年來,解決這個問題一類有效的方法是以圖卷積神經(jīng)網(wǎng)絡(luò)(GCN)[1]為代表的圖神經(jīng)網(wǎng)絡(luò)模型(GNN)。其主要思想是通過一個確定性的特征傳播來聚合鄰居節(jié)點的信息,以此來達(dá)到對特征降噪的目的。

但是,最近的研究表明,這種傳播過程會帶來一些固有的問題,例如:

1) 過平滑,圖卷積可以看做是一種特殊形式的拉普拉斯平滑,疊加多層之后節(jié)點之間的feature就會變得不可區(qū)分。

2)欠魯棒,GNN中的特征傳播會使得節(jié)點的預(yù)測嚴(yán)重依賴于特定的鄰居節(jié)點,這樣的模型對噪音的容忍度會很差,例如KDD’18的best paper[2]就表明我們甚至可以通過間接攻擊的方式通過改變目標(biāo)節(jié)點鄰居的屬性來達(dá)到攻擊目標(biāo)節(jié)點的目的。

3)過擬合,在半監(jiān)督節(jié)點分類的任務(wù)中,有標(biāo)簽的節(jié)點很少,而一般GNN僅僅依靠這些少量的監(jiān)督信息做訓(xùn)練,這樣訓(xùn)練出來的模型泛化能力會比較差。

模型介紹

為了解決這些問題,在這個工作中我們提出了圖隨機神經(jīng)網(wǎng)絡(luò)(GRAND),一種簡單有效的圖半監(jiān)督學(xué)習(xí)方法。與傳統(tǒng)GNN不同,GRAND采用隨機傳播(Random Propagation)策略。具體來說,我們首先隨機丟棄一些節(jié)點的屬性對節(jié)點特征做一個隨機擾動,然后對擾動后的節(jié)點特征做一個高階傳播。這樣一來,每個節(jié)點的特征就會隨機地與其高階鄰居的特征進交互,這種策略會降低節(jié)點對某些特定節(jié)點的依賴,提升模型的魯棒性。

除此之外,在同質(zhì)圖中,相鄰的節(jié)點往往具有相似的特征及標(biāo)簽,這樣節(jié)點丟棄的信息就可以被其鄰居的信息補償過來。因此這樣形成的節(jié)點特征就可以看成是一種針對圖數(shù)據(jù)的數(shù)據(jù)增強方法?;谶@種傳播方法,我們進而設(shè)計了基于一致性正則(consistency regularization)的訓(xùn)練方法,即每次訓(xùn)練時進行多次Random Propagation 生成多個不同的節(jié)點增強表示,然后將這些增強表示輸入到一個MLP中,除了優(yōu)化交叉熵?fù)p失之外,我們還會去優(yōu)化MLP模型對多個數(shù)據(jù)增強產(chǎn)生預(yù)測結(jié)果的一致性。這種一致性正則損失無需標(biāo)簽,可以使模型利用充足的無標(biāo)簽數(shù)據(jù),以彌補半監(jiān)督任務(wù)中監(jiān)督信息少的不足,提升模型的泛化能力,減小過擬合的風(fēng)險。

圖一

圖二

我們對GRAND進行了理論分析,分析結(jié)果表明,這種Random propagation + Consistency Regularization 的訓(xùn)練方式實際上是在優(yōu)化模型對節(jié)點與其鄰居節(jié)點預(yù)測置信度之間的一致性。

實驗結(jié)果

我們在GNN基準(zhǔn)數(shù)據(jù)集中的實驗結(jié)果對GRAND進行了評測,實驗結(jié)果顯示GRAND在3個公開數(shù)據(jù)集中顯著超越了14種不同種類的GNN模型,取得了SOTA的效果。實驗結(jié)果(圖三):

圖三

此外我們還對模型泛化性,魯棒性,過平滑等問題進行了分析,實驗結(jié)果顯示1)Consistency Regularization 和Random Propagation均能提升模型的泛化能力(圖四);2)GRAND具有更好的對抗魯棒性(圖五);3)GRAND可以減輕過平滑問題(圖六)。

圖四

圖五

圖六

責(zé)任編輯:xj

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
收藏 人收藏

    評論

    相關(guān)推薦

    【《大語言模型應(yīng)用指南》閱讀體驗】+ 基礎(chǔ)篇

    章節(jié)最后總結(jié)了機器學(xué)習(xí)的分類:有監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、監(jiān)督學(xué)習(xí)、自監(jiān)督學(xué)習(xí)和強化
    發(fā)表于 07-25 14:33

    BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)機制

    BP神經(jīng)網(wǎng)絡(luò)(Backpropagation Neural Network),即反向傳播神經(jīng)網(wǎng)絡(luò),是一種基于梯度下降算法的多層前饋神經(jīng)網(wǎng)絡(luò),其學(xué)習(xí)機制的核心在于通過反向傳播算法
    的頭像 發(fā)表于 07-10 15:49 ?219次閱讀

    神經(jīng)網(wǎng)絡(luò)如何用無監(jiān)督算法訓(xùn)練

    神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的重要組成部分,其訓(xùn)練方式多樣,其中無監(jiān)督學(xué)習(xí)是一種重要的訓(xùn)練策略。無監(jiān)督學(xué)習(xí)旨在從未標(biāo)記的數(shù)據(jù)中發(fā)現(xiàn)數(shù)據(jù)內(nèi)在的結(jié)構(gòu)、模式或規(guī)律,從而提取有用的特征表示。這種訓(xùn)練方
    的頭像 發(fā)表于 07-09 18:06 ?573次閱讀

    前饋神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和常見激活函數(shù)

    和激活函數(shù)的非線性變換,能夠學(xué)習(xí)和模擬復(fù)雜的函數(shù)映射,從而解決各種監(jiān)督學(xué)習(xí)任務(wù)。本文將詳細(xì)闡述前饋神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu),包括其組成層、權(quán)重和偏置、激活函數(shù)等,并介紹幾種常見的激活函數(shù)及其特性。
    的頭像 發(fā)表于 07-09 10:31 ?230次閱讀

    深度神經(jīng)網(wǎng)絡(luò)與基本神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在探討深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks, DNNs)與基本神經(jīng)網(wǎng)絡(luò)(通常指傳統(tǒng)神經(jīng)網(wǎng)絡(luò)或前向神經(jīng)網(wǎng)絡(luò))的區(qū)別時,我們需要從多個維度進行深入分析。這些維度包括
    的頭像 發(fā)表于 07-04 13:20 ?329次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)與循環(huán)神經(jīng)網(wǎng)絡(luò)的區(qū)別

    在深度學(xué)習(xí)領(lǐng)域,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks, CNN)和循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Networks, RNN)是兩種極其重要
    的頭像 發(fā)表于 07-03 16:12 ?969次閱讀

    反向傳播神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    神經(jīng)網(wǎng)絡(luò)在許多領(lǐng)域都有廣泛的應(yīng)用,如語音識別、圖像識別、自然語言處理等。然而,BP神經(jīng)網(wǎng)絡(luò)也存在一些問題,如容易陷入局部最優(yōu)解、訓(xùn)練時間長、對初始權(quán)重敏感等。為了解決這些問題,研究者們提出了一些改進的BP
    的頭像 發(fā)表于 07-03 11:00 ?366次閱讀

    如何使用神經(jīng)網(wǎng)絡(luò)進行建模和預(yù)測

    神經(jīng)網(wǎng)絡(luò)是一種強大的機器學(xué)習(xí)技術(shù),可以用于建模和預(yù)測變量之間的關(guān)系。 神經(jīng)網(wǎng)絡(luò)的基本概念 神經(jīng)網(wǎng)絡(luò)是一種受人腦啟發(fā)的計算模型,由大量的節(jié)點(
    的頭像 發(fā)表于 07-03 10:23 ?379次閱讀

    神經(jīng)網(wǎng)絡(luò)反向傳播算法原理是什么

    神經(jīng)網(wǎng)絡(luò)反向傳播算法(Backpropagation Algorithm)是一種用于訓(xùn)練多層前饋神經(jīng)網(wǎng)絡(luò)監(jiān)督學(xué)習(xí)算法。它通過最小化損失函數(shù)來調(diào)整網(wǎng)
    的頭像 發(fā)表于 07-02 14:16 ?252次閱讀

    神經(jīng)網(wǎng)絡(luò)架構(gòu)有哪些

    神經(jīng)網(wǎng)絡(luò)架構(gòu)是機器學(xué)習(xí)領(lǐng)域中的核心組成部分,它們模仿了生物神經(jīng)網(wǎng)絡(luò)的運作方式,通過復(fù)雜的網(wǎng)絡(luò)結(jié)構(gòu)實現(xiàn)信息的處理、存儲和傳遞。隨著深度學(xué)習(xí)技術(shù)
    的頭像 發(fā)表于 07-01 14:16 ?342次閱讀

    鼾聲監(jiān)測神經(jīng)網(wǎng)絡(luò)

    自動打鼾檢測的混合卷積神經(jīng)網(wǎng)絡(luò)(CNN)模型。該模型由處理原始信號的一維(1D)CNN和表示通過可見性方法映射的圖像的二維(2D)CNN組成。在我們的實驗中,我們的算法實現(xiàn)了89.3%的平均
    發(fā)表于 05-15 12:14

    助聽器降噪神經(jīng)網(wǎng)絡(luò)模型

    抑制任務(wù)是語音增強領(lǐng)域的一個重要學(xué)科, 隨著深度神經(jīng)網(wǎng)絡(luò)的興起,提出了幾種基于深度模型的音頻處理新方法[1,2,3,4]。然而,這些通常是為離線處理而開發(fā)的,不需要考慮實時性。當(dāng)使用神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 05-11 17:15

    清華大學(xué)聯(lián)合中交興路發(fā)布《中國公路貨運大數(shù)據(jù)碳排放報告》

    為踐行并推動實現(xiàn)“雙碳”目標(biāo),清華大學(xué)聯(lián)合中交興路發(fā)布《中國公路貨運大數(shù)據(jù)碳排放報告》(以下簡稱:《報告》)。
    的頭像 發(fā)表于 05-09 14:47 ?273次閱讀
    <b class='flag-5'>清華大學(xué)聯(lián)合</b>中交興路發(fā)布《中國公路貨運大數(shù)據(jù)碳排放報告》

    詳解深度學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用

    在如今的網(wǎng)絡(luò)時代,錯綜復(fù)雜的大數(shù)據(jù)和網(wǎng)絡(luò)環(huán)境,讓傳統(tǒng)信息處理理論、人工智能與人工神經(jīng)網(wǎng)絡(luò)都面臨巨大的挑戰(zhàn)。近些年,深度學(xué)習(xí)逐漸走進人們的視線,通過深度
    的頭像 發(fā)表于 01-11 10:51 ?1605次閱讀
    詳解深度<b class='flag-5'>學(xué)習(xí)</b>、<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>與卷積<b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>的應(yīng)用

    我國芯片突破!清華大學(xué)全球首枚!

    10月10日消息,據(jù)清華大學(xué)公眾號,近日,清華大學(xué)集成電路學(xué)院教授吳華強、副教授高濱基于存算一體計算范式,研制出全球首顆全系統(tǒng)集成的、支持高效片上學(xué)習(xí)(機器學(xué)習(xí)能在硬件端直接完成)的憶
    的頭像 發(fā)表于 10-14 08:11 ?494次閱讀
    我國芯片突破!<b class='flag-5'>清華大學(xué)</b>全球首枚!