0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

圖神經(jīng)網(wǎng)絡(luò)背后的原理和其強(qiáng)大的表征能力

DPVg_AI_era ? 來(lái)源:lq ? 2019-06-02 09:22 ? 次閱讀

網(wǎng)絡(luò)領(lǐng)域的大牛、斯坦福大學(xué)Jure Leskovec教授在ICLR 2019就圖深度生成模型做了演講,闡述了圖生成模型的方法和應(yīng)用,并詳細(xì)介紹了他的最新成果

斯坦福大學(xué)教授Jure Leskovec是圖網(wǎng)絡(luò)領(lǐng)域的專家,圖表示學(xué)習(xí)方法 node2vec 和 GraphSAGE 作者之一。

Jure Leskovec

在今年 ICLR,Jure Leskovec 教授及斯坦福、MIT 的多名研究者發(fā)表論文How Powerful Are Graph Neural Networks?(https://cs.stanford.edu/people/jure/pubs/gin-iclr19.pdf),詳細(xì)闡述了圖神經(jīng)網(wǎng)絡(luò)背后的原理和其強(qiáng)大的表征能力,認(rèn)為圖神經(jīng)網(wǎng)絡(luò)在因果推理方面有巨大的潛力,有望成為 AI 的下一個(gè)拐點(diǎn)。

此外,在 ICLR 受邀演講上,Jure Leskovec 教授還就圖深度生成模型做了演講。在這次演講中,Jure 闡述了圖生成模型的方法和應(yīng)用,并詳細(xì)介紹了他的最新成果,GraphRNN 和 Graph Convolutional Policy Network。

本文帶來(lái)該演講的 PPT。

下載鏈接 (或點(diǎn)擊閱讀原文下載):

http://i.stanford.edu/~jure/pub/talks2/graph_gen-iclr-may19-long.pdf

主要內(nèi)容:

為什么圖網(wǎng)絡(luò)很重要?

圖生成任務(wù)

GraphRNN:RNN 的兩個(gè)層次

圖卷積策略網(wǎng)絡(luò):將圖表示和強(qiáng)化學(xué)習(xí)結(jié)合起來(lái)

為什么圖網(wǎng)絡(luò)很重要?

為什么圖網(wǎng)絡(luò)很重要?

深入了解圖的形成過程

異常檢測(cè) - 異常行為,進(jìn)化

預(yù)測(cè) —— 根據(jù)過去預(yù)測(cè)未來(lái)

新的圖結(jié)構(gòu)的模擬

圖補(bǔ)全 - 很多圖都是部分可觀察的

“如果” 場(chǎng)景

圖生成任務(wù)

任務(wù) 1:生成逼真的圖

生成與給定數(shù)據(jù)集相似的圖

任務(wù) 2:目標(biāo)導(dǎo)向的圖生成

生成優(yōu)化給定目標(biāo) / 約束的圖

藥物分子生成 / 優(yōu)化

關(guān)鍵的見解

通過順序添加節(jié)點(diǎn) / 邊來(lái)生成圖

好處:

表示具有不同大小、不同序列長(zhǎng)度的圖

將不同的節(jié)點(diǎn)順序?qū)?yīng)于不同的生成軌跡

捕獲節(jié)點(diǎn)之間的復(fù)雜依賴關(guān)系

GraphRNN:RNN 的兩個(gè)層次

GraphRNN:RNN 的兩個(gè)層次

目標(biāo):將模型圖生成作為序列生成

需要對(duì)兩個(gè)流程建模:

為新節(jié)點(diǎn)生成狀態(tài) (節(jié) Node-level RNN)

根據(jù)新節(jié)點(diǎn)的狀態(tài)生成新節(jié)點(diǎn)的邊 (Edge-level RNN)

圖卷積策略網(wǎng)絡(luò)

圖卷積策略網(wǎng)絡(luò):目標(biāo)導(dǎo)向的圖生成 (GCPN)

將圖表示 + RL 結(jié)合起來(lái)

圖表示 (Graph representation) 捕獲復(fù)雜的結(jié)構(gòu)信息,并在每個(gè)狀態(tài)轉(zhuǎn)換中啟用有效性檢查 (Valid)

強(qiáng)化學(xué)習(xí) (RL) 優(yōu)化中間 / 最終獎(jiǎng)勵(lì) (High scores)

對(duì)抗性訓(xùn)練 (Adversarial training) 模仿給定數(shù)據(jù)集中的例子 (Realistic)

總結(jié)

通過序列生成,可以成功生成復(fù)雜的圖

每一步?jīng)Q策都是基于隱藏狀態(tài)做出的

顯式:中間生成圖,用 GCN 解碼

隱式:向量表示,RNN 解碼

任務(wù):

模仿一組給定的圖

按照既定目標(biāo)優(yōu)化圖

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4749

    瀏覽量

    100443
  • AI
    AI
    +關(guān)注

    關(guān)注

    87

    文章

    29881

    瀏覽量

    268171
  • 論文
    +關(guān)注

    關(guān)注

    1

    文章

    103

    瀏覽量

    14944

原文標(biāo)題:斯坦福教授ICLR演講:圖網(wǎng)絡(luò)最新進(jìn)展GraphRNN和GCPN(附PPT下載)

文章出處:【微信號(hào):AI_era,微信公眾號(hào):新智元】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。

收藏 人收藏

    評(píng)論

    相關(guān)推薦

    【PYNQ-Z2試用體驗(yàn)】神經(jīng)網(wǎng)絡(luò)基礎(chǔ)知識(shí)

    超過閾值,輸出就一躍而起。但我們一般用S函數(shù)作為激活函數(shù)。如下圖:2 該函數(shù)相比階越函數(shù)更加接近現(xiàn)實(shí)。神經(jīng)網(wǎng)絡(luò)原理如圖所示是一個(gè)具有兩層的神經(jīng)網(wǎng)絡(luò),每層有兩個(gè)神經(jīng)元。
    發(fā)表于 03-03 22:10

    卷積神經(jīng)網(wǎng)絡(luò)如何使用

    卷積神經(jīng)網(wǎng)絡(luò)(CNN)究竟是什么,鑒于神經(jīng)網(wǎng)絡(luò)在工程上經(jīng)歷了曲折的歷史,您為什么還會(huì)在意它呢? 對(duì)于這些非常中肯的問題,我們似乎可以給出相對(duì)簡(jiǎn)明的答案。
    發(fā)表于 07-17 07:21

    【案例分享】基于BP算法的前饋神經(jīng)網(wǎng)絡(luò)

    `BP神經(jīng)網(wǎng)絡(luò)首先給出只包含一個(gè)隱層的BP神經(jīng)網(wǎng)絡(luò)模型(兩層神經(jīng)網(wǎng)絡(luò)): BP神經(jīng)網(wǎng)絡(luò)其實(shí)由兩部分組成:前饋神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 07-21 04:00

    【案例分享】ART神經(jīng)網(wǎng)絡(luò)與SOM神經(jīng)網(wǎng)絡(luò)

    今天學(xué)習(xí)了兩個(gè)神經(jīng)網(wǎng)絡(luò),分別是自適應(yīng)諧振(ART)神經(jīng)網(wǎng)絡(luò)與自組織映射(SOM)神經(jīng)網(wǎng)絡(luò)。整體感覺不是很難,只不過一些最基礎(chǔ)的概念容易理解不清。首先ART神經(jīng)網(wǎng)絡(luò)是競(jìng)爭(zhēng)學(xué)習(xí)的一個(gè)代表,
    發(fā)表于 07-21 04:30

    如何設(shè)計(jì)BP神經(jīng)網(wǎng)絡(luò)圖像壓縮算法?

    ,并能在腦海中重現(xiàn)這些圖像信息,這不僅與人腦的海量信息存儲(chǔ)能力有關(guān),還與人腦的信息處理能力,包括數(shù)據(jù)壓縮能力有關(guān)。在各種神經(jīng)網(wǎng)絡(luò)中,多層前饋神經(jīng)網(wǎng)絡(luò)
    發(fā)表于 08-08 06:11

    如何構(gòu)建神經(jīng)網(wǎng)絡(luò)

    原文鏈接:http://tecdat.cn/?p=5725 神經(jīng)網(wǎng)絡(luò)是一種基于現(xiàn)有數(shù)據(jù)創(chuàng)建預(yù)測(cè)的計(jì)算系統(tǒng)。如何構(gòu)建神經(jīng)網(wǎng)絡(luò)神經(jīng)網(wǎng)絡(luò)包括:輸入層:根據(jù)現(xiàn)有數(shù)據(jù)獲取輸入的層隱藏層:使用反向傳播優(yōu)化輸入變量權(quán)重的層,以提高模型的預(yù)測(cè)
    發(fā)表于 07-12 08:02

    基于BP神經(jīng)網(wǎng)絡(luò)的PID控制

    最近在學(xué)習(xí)電機(jī)的智能控制,上周學(xué)習(xí)了基于單神經(jīng)元的PID控制,這周研究基于BP神經(jīng)網(wǎng)絡(luò)的PID控制。神經(jīng)網(wǎng)絡(luò)具有任意非線性表達(dá)能力,可以通過對(duì)系統(tǒng)性能的學(xué)習(xí)來(lái)實(shí)現(xiàn)具有最佳組合的PID控
    發(fā)表于 09-07 07:43

    卷積神經(jīng)網(wǎng)絡(luò)模型發(fā)展及應(yīng)用

    模型(generative adversarial network,GAN),具有完全相同的兩路網(wǎng)絡(luò) 結(jié)構(gòu)以及權(quán)值的孿生神經(jīng)網(wǎng)絡(luò)模型 SiameseNet,以 及通過線性運(yùn)算生成其他冗余特征
    發(fā)表于 08-02 10:39

    卷積神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介:什么是機(jī)器學(xué)習(xí)?

    復(fù)雜數(shù)據(jù)中提取特征的強(qiáng)大工具。例如,這包括音頻信號(hào)或圖像中的復(fù)雜模式識(shí)別。本文討論了 CNN 相對(duì)于經(jīng)典線性規(guī)劃的優(yōu)勢(shì)。后續(xù)文章“訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò):什么是機(jī)器學(xué)習(xí)?——第2部分”將討論如何訓(xùn)練CNN
    發(fā)表于 02-23 20:11

    深入了解神經(jīng)網(wǎng)絡(luò)背后的原理和強(qiáng)大表征能力

    分類數(shù)據(jù)集上,通過實(shí)驗(yàn)驗(yàn)證我們的理論,其中 GNN 的表達(dá)能力對(duì)于捕獲結(jié)構(gòu)至關(guān)重要。特別是,我們對(duì)基于各種聚合函數(shù)的 GNN 性能進(jìn)行了對(duì)比。我們的結(jié)果證實(shí)了最強(qiáng)大的 GNN(我
    的頭像 發(fā)表于 03-01 09:09 ?1.1w次閱讀
    深入了解<b class='flag-5'>圖</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b><b class='flag-5'>背后</b>的原理和<b class='flag-5'>其</b><b class='flag-5'>強(qiáng)大</b>的<b class='flag-5'>表征</b><b class='flag-5'>能力</b>

    人工神經(jīng)網(wǎng)絡(luò)分類和應(yīng)用

    人工神經(jīng)網(wǎng)絡(luò)分類和應(yīng)用說明。
    發(fā)表于 04-21 09:51 ?5次下載

    淺談神經(jīng)網(wǎng)絡(luò)在自然語(yǔ)言處理中的應(yīng)用簡(jiǎn)述

    近幾年,神經(jīng)網(wǎng)絡(luò)因其強(qiáng)大表征能力逐漸取代傳統(tǒng)的機(jī)器學(xué)習(xí)成為自然語(yǔ)言處理任務(wù)的基本模型。然而經(jīng)典的神經(jīng)網(wǎng)絡(luò)模型只能處理歐氏空間中的數(shù)據(jù),自然
    的頭像 發(fā)表于 04-26 14:57 ?3254次閱讀
    淺談<b class='flag-5'>圖</b><b class='flag-5'>神經(jīng)網(wǎng)絡(luò)</b>在自然語(yǔ)言處理中的應(yīng)用簡(jiǎn)述

    什么是神經(jīng)網(wǎng)絡(luò)?什么是卷積神經(jīng)網(wǎng)絡(luò)?

    在介紹卷積神經(jīng)網(wǎng)絡(luò)之前,我們先回顧一下神經(jīng)網(wǎng)絡(luò)的基本知識(shí)。就目前而言,神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)算法的核心,我們所熟知的很多深度學(xué)習(xí)算法的背后其實(shí)都是神經(jīng)網(wǎng)
    的頭像 發(fā)表于 02-23 09:14 ?3317次閱讀

    卷積神經(jīng)網(wǎng)絡(luò)和bp神經(jīng)網(wǎng)絡(luò)的區(qū)別

    不同的神經(jīng)網(wǎng)絡(luò)模型,它們?cè)诮Y(jié)構(gòu)、原理、應(yīng)用等方面都存在一定的差異。本文將從多個(gè)方面對(duì)這兩種神經(jīng)網(wǎng)絡(luò)進(jìn)行詳細(xì)的比較和分析。 引言 神經(jīng)網(wǎng)絡(luò)是一種模擬人腦神經(jīng)元連接和信息傳遞的計(jì)算模型,它
    的頭像 發(fā)表于 07-02 14:24 ?2511次閱讀

    怎么對(duì)神經(jīng)網(wǎng)絡(luò)重新訓(xùn)練

    發(fā)生變化,導(dǎo)致神經(jīng)網(wǎng)絡(luò)的泛化能力下降。為了保持神經(jīng)網(wǎng)絡(luò)的性能,需要對(duì)進(jìn)行重新訓(xùn)練。本文將詳細(xì)介紹重新訓(xùn)練神經(jīng)網(wǎng)絡(luò)的步驟和方法。 數(shù)據(jù)預(yù)處理
    的頭像 發(fā)表于 07-11 10:25 ?406次閱讀