本文主要介紹圖機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)。
我們首先學(xué)習(xí)什么是圖、為什么使用圖以及如何最佳地表示圖。然后,我們簡(jiǎn)要介紹大家如何在圖數(shù)據(jù)上學(xué)習(xí),從神經(jīng)網(wǎng)絡(luò)以前的方法 (同時(shí)我們會(huì)探索圖特征) 到現(xiàn)在廣為人知的圖神經(jīng)網(wǎng)絡(luò) (Graph Neural Network,GNN) ,最后,我們將一窺圖數(shù)據(jù)上的 Transformers 世界。
什么是圖?
本質(zhì)上來(lái)講,圖描述了由關(guān)系互相鏈接起來(lái)的實(shí)體。
現(xiàn)實(shí)中有很多圖的例子,包括社交網(wǎng)絡(luò) (如推特,長(zhǎng)毛象,以及任何鏈接論文和作者的引用網(wǎng)絡(luò)) 、分子、知識(shí)圖譜 (如 UML 圖,百科全書(shū),以及那些頁(yè)面之間有超鏈接的網(wǎng)站) 、被表示成句法樹(shù)的句子、3D 網(wǎng)格等等。因此,可以毫不夸張地講,圖無(wú)處不在。
圖 (或網(wǎng)絡(luò)) 中的實(shí)體稱(chēng)為 節(jié)點(diǎn) (或頂點(diǎn)) ,它們之間的連接稱(chēng)為 邊 (或鏈接) 。舉個(gè)例子,在社交網(wǎng)絡(luò)中,節(jié)點(diǎn)是用戶(hù),而邊是他 (她) 們之間的連接關(guān)系;在分子中,節(jié)點(diǎn)是原子,而邊是它們之間的分子鍵。
可以存在不止一種類(lèi)型的節(jié)點(diǎn)或邊的圖稱(chēng)為 異構(gòu)圖 (heterogeneous graph) (例子:引用網(wǎng)絡(luò)的節(jié)點(diǎn)有論文和作者兩種類(lèi)型,含有多種關(guān)系類(lèi)型的 XML 圖的邊是多類(lèi)型的) 。異構(gòu)圖不能僅由其拓?fù)浣Y(jié)構(gòu)來(lái)表征,它需要額外的信息。本文主要討論同構(gòu)圖 (homogeneous graph) 。
圖還可以是 有向 (directed) 的 (如一個(gè)關(guān)注網(wǎng)絡(luò)中,A 關(guān)注了 B,但 B 可以不關(guān)注 A) 或者是 無(wú)向 (undirected) 的 (如一個(gè)分子中,原子間的關(guān)系是雙向的) 。邊可以連接不同的節(jié)點(diǎn),也可以自己連接自己 (自連邊,self-edges) ,但不是所有的節(jié)點(diǎn)都必須有連接。
如果你想使用自己的數(shù)據(jù),首先你必須考慮如何最佳地刻畫(huà)它 (同構(gòu) / 異構(gòu),有向 / 無(wú)向等) 。
圖有什么用途?
我們一起看看在圖上我們可以做哪些任務(wù)吧。
在 圖層面,主要的任務(wù)有:
圖生成: 可在藥物發(fā)現(xiàn)任務(wù)中用于生成新的可能的藥物分子,
圖演化 (給定一個(gè)圖,預(yù)測(cè)它會(huì)如何隨時(shí)間演化) : 可在物理學(xué)中用于預(yù)測(cè)系統(tǒng)的演化,
圖層面預(yù)測(cè) (基于圖的分類(lèi)或回歸任務(wù)) : 如預(yù)測(cè)分子毒性。
在 節(jié)點(diǎn)層面,通常用于預(yù)測(cè)節(jié)點(diǎn)屬性。舉個(gè)例子,Alphafold 使用節(jié)點(diǎn)屬性預(yù)測(cè)方法,在給定分子總體圖的條件下預(yù)測(cè)原子的 3D 坐標(biāo),并由此預(yù)測(cè)分子在 3D 空間中如何折疊,這是個(gè)比較難的生物化學(xué)問(wèn)題。
在 邊層面,我們可以做邊屬性預(yù)測(cè)或缺失邊預(yù)測(cè)。邊屬性預(yù)測(cè)可用于在給定藥物對(duì) (pair) 的條件下預(yù)測(cè)藥物的不良副作用。缺失邊預(yù)測(cè)被用于在推薦系統(tǒng)中預(yù)測(cè)圖中的兩個(gè)節(jié)點(diǎn)是否相關(guān)。
另一種可能的工作是在 子圖層面 的,可用于社區(qū)檢測(cè)或子圖屬性預(yù)測(cè)。社交網(wǎng)絡(luò)用社區(qū)檢測(cè)確定人們之間如何連接。我們可以在行程系統(tǒng) (如 Google Maps) 中發(fā)現(xiàn)子圖屬性預(yù)測(cè)的身影,它被用于預(yù)測(cè)到達(dá)時(shí)間。
完成這些任務(wù)有兩種方式。
當(dāng)你想要預(yù)測(cè)特定圖的演化時(shí),你工作在 直推 (transductive) 模式,直推模式中所有的訓(xùn)練、驗(yàn)證和推理都是基于同一張圖。如果這是你的設(shè)置,要多加小心!在同一張圖上創(chuàng)建訓(xùn)練 / 評(píng)估 / 測(cè)試集可不容易。 然而,很多任務(wù)其實(shí)是工作在不同的圖上的 (不同的訓(xùn)練 / 評(píng)估 / 測(cè)試集劃分) ,我們稱(chēng)之為 歸納 (inductive) 模式。
如何表示圖?
常用的表示圖以用于后續(xù)處理和操作的方法有 2 種:
表示成所有邊的集合 (很有可能也會(huì)加上所有節(jié)點(diǎn)的集合用以補(bǔ)充) 。
或表示成所有節(jié)點(diǎn)間的鄰接矩陣。鄰接矩陣是一個(gè) 大小的方陣,它指明圖上哪些節(jié)點(diǎn)間是直接相連的 (若 和 相連則 ,否則為 0) 。
?
注意:多數(shù)圖的邊連接并不稠密,因此它們的鄰接矩陣是稀疏的,這個(gè)會(huì)讓計(jì)算變得困難。
雖然這些表示看上去很熟悉,但可別被騙了!
圖與機(jī)器學(xué)習(xí)中使用的典型對(duì)象大不相同,因?yàn)樗鼈兊耐負(fù)浣Y(jié)構(gòu)比序列 (如文本或音頻) 或有序網(wǎng)格 (如圖像和視頻) 復(fù)雜得多:即使它們可以被表示成鏈表或者矩陣,但它們并不能被當(dāng)作有序?qū)ο髞?lái)處理。
這究竟意味著什么呢?如果你有一個(gè)句子,你交換了這個(gè)句子的詞序,你就創(chuàng)造了一個(gè)新句子。如果你有一張圖像,然后你重排了這個(gè)圖像的列,你就創(chuàng)造了一張新圖像。
左圖是 Hugging Face 的標(biāo)志。右圖是一個(gè)重排后的 Hugging Face 標(biāo)志,已經(jīng)是一張不同的新圖像了。
但圖并不會(huì)如此。如果你重排了圖的邊列表或者鄰接矩陣的列,圖還是同一個(gè)圖 (一個(gè)更正式的叫法是置換不變性 (permutation invariance) ) 。
左圖,一個(gè)小型圖 (黃色是節(jié)點(diǎn),橙色是邊) 。中圖,該圖的鄰接矩陣,行與列的節(jié)點(diǎn)按字母排序:可以看到第一行的節(jié)點(diǎn) A,與 E 和 C 相連。右圖,重排后的鄰接矩陣 (列不再按字母序排了),但這還是該圖的有效表示:A 節(jié)點(diǎn)仍然與 E 和 C 相連。
基于機(jī)器學(xué)習(xí)的圖表示
使用機(jī)器學(xué)習(xí)處理圖的一般流程是:首先為你感興趣的對(duì)象 (根據(jù)你的任務(wù),可以是節(jié)點(diǎn)、邊或是全圖) 生成一個(gè)有意義的表示,然后使用它們訓(xùn)練一個(gè)目標(biāo)任務(wù)的預(yù)測(cè)器。與其他模態(tài)數(shù)據(jù)一樣,我們想要對(duì)這些對(duì)象的數(shù)學(xué)表示施加一些約束,使得相似的對(duì)象在數(shù)學(xué)上是相近的。然而,這種相似性在圖機(jī)器學(xué)習(xí)上很難嚴(yán)格定義,舉個(gè)例子,具有相同標(biāo)簽的兩個(gè)節(jié)點(diǎn)和具有相同鄰居的兩個(gè)節(jié)點(diǎn)哪兩個(gè)更相似?
?
注意:在隨后的部分,我們將聚焦于如何生成節(jié)點(diǎn)的表示。一旦你有了節(jié)點(diǎn)層面的表示,就有可能獲得邊或圖層面的信息。你可以通過(guò)把邊所連接的兩個(gè)節(jié)點(diǎn)的表示串聯(lián)起來(lái)或者做一個(gè)點(diǎn)積來(lái)得到邊層面的信息。至于圖層面的信息,可以通過(guò)對(duì)圖上所有節(jié)點(diǎn)的表示串聯(lián)起來(lái)的張量做一個(gè)全局池化 (平均,求和等) 來(lái)獲得。當(dāng)然,這么做會(huì)平滑掉或丟失掉整圖上的一些信息,使用迭代的分層池化可能更合理,或者增加一個(gè)連接到圖上所有其他節(jié)點(diǎn)的虛擬節(jié)點(diǎn),然后使用它的表示作為整圖的表示。
神經(jīng)網(wǎng)絡(luò)以前的方法
只使用手工設(shè)計(jì)特征
在神經(jīng)網(wǎng)絡(luò)出現(xiàn)之前,圖以及圖中的感興趣項(xiàng)可以被表示成特征的組合,這些特征組合是針對(duì)特定任務(wù)的。盡管現(xiàn)在存在 更復(fù)雜的特征生成方法,這些特征仍然被用于數(shù)據(jù)增強(qiáng)和 半監(jiān)督學(xué)習(xí)。這時(shí),你主要的工作是根據(jù)目標(biāo)任務(wù),找到最佳的用于后續(xù)網(wǎng)絡(luò)訓(xùn)練的特征。
節(jié)點(diǎn)層面特征 可以提供關(guān)于其重要性 (該節(jié)點(diǎn)對(duì)于圖有多重要?) 以及 / 或結(jié)構(gòu)性 (節(jié)點(diǎn)周?chē)膱D的形狀如何?) 信息,兩者可以結(jié)合。
節(jié)點(diǎn) 中心性 (centrality) 度量圖中節(jié)點(diǎn)的重要性。它可以遞歸計(jì)算,即不斷對(duì)每個(gè)節(jié)點(diǎn)的鄰節(jié)點(diǎn)的中心性求和直到收斂,也可以通過(guò)計(jì)算節(jié)點(diǎn)間的最短距離來(lái)獲得,等等。節(jié)點(diǎn)的 度 (degree) 度量節(jié)點(diǎn)的直接鄰居的數(shù)量。聚類(lèi)系數(shù) (clustering coefficient) 度量一個(gè)節(jié)點(diǎn)的鄰節(jié)點(diǎn)之間相互連接的程度。
圖元度向量 (Graphlets degree vectors,GDV) 計(jì)算給定根節(jié)點(diǎn)的不同圖元的數(shù)目,這里圖元是指給定數(shù)目的連通節(jié)點(diǎn)可創(chuàng)建的所有迷你圖 (如:3 個(gè)連通節(jié)點(diǎn)可以生成一個(gè)有兩條邊的線(xiàn),或者一個(gè) 3 條邊的三角形) 。
2 個(gè)節(jié)點(diǎn)到 5 個(gè)節(jié)點(diǎn)的圖元 (Pr?ulj, 2007)
邊層面特征帶來(lái)了關(guān)于節(jié)點(diǎn)間連通性的更多細(xì)節(jié)信息,有效地補(bǔ)充了圖的表示,有:兩節(jié)點(diǎn)間的 最短距離 (shortest distance),它們的公共鄰居 (common neighbours),以及它們的 卡茲指數(shù) (Katz index) (表示兩節(jié)點(diǎn)間從所有長(zhǎng)度小于某個(gè)值的路徑的數(shù)目,它可以由鄰接矩陣直接算得) 。
圖層面特征 包含了關(guān)于圖相似性和規(guī)格的高層信息???圖元數(shù) 盡管計(jì)算上很昂貴,但提供了關(guān)于子圖形狀的信息。核方法 通過(guò)不同的節(jié)點(diǎn)袋 (bag of nodes) (類(lèi)似于詞袋 (bag of words) ) 方法度量圖之間的相似性。
基于游走的方法
基于游走的方法 使用在隨機(jī)游走時(shí)從節(jié)點(diǎn)j訪問(wèn)節(jié)點(diǎn)i的可能性來(lái)定義相似矩陣;這些方法結(jié)合了局部和全局的信息。舉個(gè)例子,Node2Vec模擬圖中節(jié)點(diǎn)間的隨機(jī)游走,把這些游走路徑建模成跳字 (skip-gram) ,這與我們處理句子中的詞很相似,然后計(jì)算嵌入?;陔S機(jī)游走的方法也可被用于加速 Page Rank 方法,幫助計(jì)算每個(gè)節(jié)點(diǎn)的重要性得分 (舉個(gè)例子:如果重要性得分是基于每個(gè)節(jié)點(diǎn)與其他節(jié)點(diǎn)的連通度的話(huà),我們可以用隨機(jī)游走訪問(wèn)到每個(gè)節(jié)點(diǎn)的頻率來(lái)模擬這個(gè)連通度) 。
然而,這些方法也有限制:它們不能得到新的節(jié)點(diǎn)的嵌入向量,不能很好地捕獲節(jié)點(diǎn)間的結(jié)構(gòu)相似性,也使用不了新加入的特征。
圖神經(jīng)網(wǎng)絡(luò)
神經(jīng)網(wǎng)絡(luò)可泛化至未見(jiàn)數(shù)據(jù)。我們?cè)谏衔囊呀?jīng)提到了一些圖表示的約束,那么一個(gè)好的神經(jīng)網(wǎng)絡(luò)應(yīng)該有哪些特性呢?
它應(yīng)該:
滿(mǎn)足置換不變性:
等式:,這里 f 是神經(jīng)網(wǎng)絡(luò),P 是置換函數(shù),G 是圖。
解釋?zhuān)褐脫Q后的圖和原圖經(jīng)過(guò)同樣的神經(jīng)網(wǎng)絡(luò)后,其表示應(yīng)該是相同的。
滿(mǎn)足置換等價(jià)性
公式:,同樣 f 是神經(jīng)網(wǎng)絡(luò),P 是置換函數(shù),G 是圖。
解釋?zhuān)合戎脫Q圖再傳給神經(jīng)網(wǎng)絡(luò)和對(duì)神經(jīng)網(wǎng)絡(luò)的輸出圖表示進(jìn)行置換是等價(jià)的。
典型的神經(jīng)網(wǎng)絡(luò),如循環(huán)神經(jīng)網(wǎng)絡(luò) (RNN) 或卷積神經(jīng)網(wǎng)絡(luò) (CNN) 并不是置換不變的。因此,圖神經(jīng)網(wǎng)絡(luò) (Graph Neural Network, GNN) 作為新的架構(gòu)被引入來(lái)解決這一問(wèn)題 (最初是作為狀態(tài)機(jī)使用) 。
一個(gè) GNN 由連續(xù)的層組成。一個(gè) GNN 層通過(guò) 消息傳遞 (message passing) 過(guò)程把一個(gè)節(jié)點(diǎn)表示成其鄰節(jié)點(diǎn)及其自身表示的組合 (聚合 (aggregation)) ,然后通常我們還會(huì)使用一個(gè)激活函數(shù)去增加一些非線(xiàn)性。
與其他模型相比:CNN 可以看作一個(gè)鄰域 (即滑動(dòng)窗口) 大小和順序固定的 GNN,也就是說(shuō) CNN 不是置換等價(jià)的。一個(gè)沒(méi)有位置嵌入 (positional embedding) 的 Transformer 模型可以被看作一個(gè)工作在全連接的輸入圖上的 GNN。
聚合與消息傳遞
多種方式可用于聚合鄰節(jié)點(diǎn)的消息,舉例來(lái)講,有求和,取平均等。一些值得關(guān)注的工作有:
圖卷積網(wǎng)絡(luò) 對(duì)目標(biāo)節(jié)點(diǎn)的所有鄰節(jié)點(diǎn)的歸一化表示取平均來(lái)做聚合 (大多數(shù) GNN 其實(shí)是 GCN) ;
圖注意力網(wǎng)絡(luò) 會(huì)學(xué)習(xí)如何根據(jù)鄰節(jié)點(diǎn)的重要性不同來(lái)加權(quán)聚合鄰節(jié)點(diǎn) (與 transformer 模型想法相似) ;
GraphSAGE 先在不同的跳數(shù)上進(jìn)行鄰節(jié)點(diǎn)采樣,然后基于采樣的子圖分多步用最大池化 (max pooling) 方法聚合信息;
圖同構(gòu)網(wǎng)絡(luò) 先計(jì)算對(duì)鄰節(jié)點(diǎn)的表示求和,然后再送入一個(gè) MLP 來(lái)計(jì)算最終的聚合信息。
選擇聚合方法:一些聚合技術(shù) (尤其是均值池化和最大池化) 在遇到在鄰節(jié)點(diǎn)上僅有些微差別的相似節(jié)點(diǎn)的情況下可能會(huì)失敗 (舉個(gè)例子:采用均值池化,一個(gè)節(jié)點(diǎn)有 4 個(gè)鄰節(jié)點(diǎn),分別表示為 1,1,-1,-1,取均值后變成 0;而另一個(gè)節(jié)點(diǎn)有 3 個(gè)鄰節(jié)點(diǎn),分別表示為 - 1,0,1,取均值后也是 0。兩者就無(wú)法區(qū)分了。) 。
GNN 的形狀和過(guò)平滑問(wèn)題
每加一個(gè)新層,節(jié)點(diǎn)表示中就會(huì)包含越來(lái)越多的節(jié)點(diǎn)信息。
一個(gè)節(jié)點(diǎn),在第一層,只會(huì)聚合它的直接鄰節(jié)點(diǎn)的信息。到第二層,它們?nèi)匀恢痪酆现苯余徆?jié)點(diǎn)信息,但這次,他們的直接鄰節(jié)點(diǎn)的表示已經(jīng)包含了它們各自的鄰節(jié)點(diǎn)信息 (從第一層獲得) 。經(jīng)過(guò) n 層后,所有節(jié)點(diǎn)的表示變成了它們距離為 n 的所有鄰節(jié)點(diǎn)的聚合。如果全圖的直徑小于 n 的話(huà),就是聚合了全圖的信息!
如果你的網(wǎng)絡(luò)層數(shù)過(guò)多,就有每個(gè)節(jié)點(diǎn)都聚合了全圖所有節(jié)點(diǎn)信息的風(fēng)險(xiǎn) (并且所有節(jié)點(diǎn)的表示都收斂至相同的值) ,這被稱(chēng)為過(guò)平滑問(wèn)題 (the oversmoothing problem)。
這可以通過(guò)如下方式來(lái)解決:
在設(shè)計(jì) GNN 的層數(shù)時(shí),要首先分析圖的直徑和形狀,層數(shù)不能過(guò)大,以確保每個(gè)節(jié)點(diǎn)不聚合全圖的信息
增加層的復(fù)雜性
增加非消息傳遞層來(lái)處理消息 (如簡(jiǎn)單的 MLP 層)
增加跳躍連接 (skip-connections)
過(guò)平滑問(wèn)題是圖機(jī)器學(xué)習(xí)的重要研究領(lǐng)域,因?yàn)樗柚沽?GNN 的變大,而在其他模態(tài)數(shù)據(jù)上 Transformers 之類(lèi)的模型已經(jīng)證明了把模型變大是有很好的效果的。
圖 Transformers
沒(méi)有位置嵌入 (positional encoding) 層的 Transformer 模型是置換不變的,再加上 Transformer 模型已被證明擴(kuò)展性很好,因此最近大家開(kāi)始看如何改造 Transformer 使之適應(yīng)圖數(shù)據(jù) (綜述) 。多數(shù)方法聚焦于如何最佳表示圖,如找到最好的特征、最好的表示位置信息的方法以及如何改變注意力以適應(yīng)這一新的數(shù)據(jù)。
這里我們收集了一些有意思的工作,截至本文寫(xiě)作時(shí)為止,這些工作在現(xiàn)有的最難的測(cè)試基準(zhǔn)之一 斯坦福開(kāi)放圖測(cè)試基準(zhǔn) (Open Graph Benchmark, OGB) 上取得了最高水平或接近最高水平的結(jié)果:
Graph Transformer for Graph-to-Sequence Learning (Cai and Lam, 2020) 介紹了一個(gè)圖編碼器,它把節(jié)點(diǎn)表示為它本身的嵌入和位置嵌入的級(jí)聯(lián),節(jié)點(diǎn)間關(guān)系表示為它們間的最短路徑,然后用一個(gè)關(guān)系增強(qiáng)的自注意力機(jī)制把兩者結(jié)合起來(lái)。
Rethinking Graph Transformers with Spectral Attention (Kreuzer et al, 2021) 介紹了譜注意力網(wǎng)絡(luò) (Spectral Attention Networks, SANs) 。它把節(jié)點(diǎn)特征和學(xué)習(xí)到的位置編碼 (從拉普拉斯特征值和特征向量中計(jì)算得到) 結(jié)合起來(lái),把這些作為注意力的鍵 (keys) 和查詢(xún) (queries) ,然后把邊特征作為注意力的值 (values) 。
GRPE: Relative Positional Encoding for Graph Transformer (Park et al, 2021) 介紹了圖相對(duì)位置編碼 Transformer。它先在圖層面的位置編碼中結(jié)合節(jié)點(diǎn)信息,在邊層面的位置編碼中也結(jié)合節(jié)點(diǎn)信息,然后在注意力機(jī)制中進(jìn)一步把兩者結(jié)合起來(lái)。
Global Self-Attention as a Replacement for Graph Convolution (Hussain et al, 2021) 介紹了邊增強(qiáng) Transformer。該架構(gòu)分別對(duì)節(jié)點(diǎn)和邊進(jìn)行嵌入,并通過(guò)一個(gè)修改過(guò)的注意力機(jī)制聚合它們。
Do Transformers Really Perform Badly for Graph Representation (Ying et al, 2021) 介紹了微軟的 Graphormer, 該模型在面世時(shí)贏得了 OGB 第一名。這個(gè)架構(gòu)使用節(jié)點(diǎn)特征作為注意力的查詢(xún) / 鍵 / 值 (Q/K/V) ,然后在注意力機(jī)制中把這些表示與中心性,空間和邊編碼信息通過(guò)求和的方式結(jié)合起來(lái)。
最新的工作是 Pure Transformers are Powerful Graph Learners (Kim et al, 2022),它引入了 TokenGT。這一方法把輸入圖表示為一個(gè)節(jié)點(diǎn)和邊嵌入的序列 (并用正交節(jié)點(diǎn)標(biāo)識(shí) (orthonormal node identifiers) 和可訓(xùn)練的類(lèi)型標(biāo)識(shí) (type identifiers) 增強(qiáng)它) ,而不使用位置嵌入,最后把這個(gè)序列輸入給 Tranformer 模型。超級(jí)簡(jiǎn)單,但很聰明!
稍有不同的是,Recipe for a General, Powerful, Scalable Graph Transformer (Rampá?ek et al, 2022) 引入的不是某個(gè)模型,而是一個(gè)框架,稱(chēng)為 GraphGPS。它允許把消息傳遞網(wǎng)絡(luò)和線(xiàn)性 (長(zhǎng)程的) transformer 模型結(jié)合起來(lái)輕松地創(chuàng)建一個(gè)混合網(wǎng)絡(luò)。這個(gè)框架還包含了不少工具,用于計(jì)算位置編碼和結(jié)構(gòu)編碼 (節(jié)點(diǎn)、圖、邊層面的) 、特征增強(qiáng)、隨機(jī)游走等等。
在圖數(shù)據(jù)上使用 transformer 模型還是一個(gè)非常初生的領(lǐng)域,但是它看上去很有前途,因?yàn)樗梢詼p輕 GNN 的一些限制,如擴(kuò)展到更大 / 更稠密的圖,抑或是增加模型尺寸而不必?fù)?dān)心過(guò)平滑問(wèn)題。
不錯(cuò)的處理圖數(shù)據(jù)的庫(kù)有 PyGeometric (用于圖機(jī)器學(xué)習(xí)) 以及 NetworkX (用于更通用的圖操作)。
如果你需要質(zhì)量好的測(cè)試基準(zhǔn),你可以試試看:
OGB, 開(kāi)放圖測(cè)試基準(zhǔn) (the Open Graph Benchmark) :一個(gè)可用于不同的任務(wù)和數(shù)據(jù)規(guī)模的參考圖測(cè)試基準(zhǔn)數(shù)據(jù)集。
Benchmarking GNNs: 用于測(cè)試圖機(jī)器學(xué)習(xí)網(wǎng)絡(luò)和他們的表現(xiàn)力的庫(kù)以及數(shù)據(jù)集。相關(guān)論文特地從統(tǒng)計(jì)角度研究了哪些數(shù)據(jù)集是相關(guān)的,它們可被用于評(píng)估圖的哪些特性,以及哪些圖不應(yīng)該再被用作測(cè)試基準(zhǔn)。
長(zhǎng)程圖測(cè)試基準(zhǔn) (Long Range Graph Benchmark): 最新的 (2022 年 10 月份) 測(cè)試基準(zhǔn),主要關(guān)注長(zhǎng)程的圖信息。
Taxonomy of Benchmarks in Graph Representation Learning: 發(fā)表于 2022 年 Learning on Graphs 會(huì)議,分析并對(duì)現(xiàn)有的測(cè)試基準(zhǔn)數(shù)據(jù)集進(jìn)行了排序。
如果想要更多的數(shù)據(jù)集,可以看看:
Paper with code 圖任務(wù)排行榜:公開(kāi)數(shù)據(jù)集和測(cè)試基準(zhǔn)的排行榜,請(qǐng)注意,不是所有本排行榜上的測(cè)試基準(zhǔn)都仍然適宜。
TU 數(shù)據(jù)集: 公開(kāi)可用的數(shù)據(jù)集的合輯,現(xiàn)在以類(lèi)別和特征排序。大多數(shù)數(shù)據(jù)集可以用 PyG 加載,而且其中一些已經(jīng)被集成進(jìn) PyG 的 Datsets。
審核編輯:劉清
-
神經(jīng)網(wǎng)絡(luò)
+關(guān)注
關(guān)注
42文章
4749瀏覽量
100435 -
XML
+關(guān)注
關(guān)注
0文章
187瀏覽量
33024 -
UML
+關(guān)注
關(guān)注
0文章
122瀏覽量
30839 -
機(jī)器學(xué)習(xí)
+關(guān)注
關(guān)注
66文章
8357瀏覽量
132330 -
GNN
+關(guān)注
關(guān)注
1文章
31瀏覽量
6325
原文標(biāo)題:一文帶你入門(mén)圖機(jī)器學(xué)習(xí)
文章出處:【微信號(hào):OSC開(kāi)源社區(qū),微信公眾號(hào):OSC開(kāi)源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
評(píng)論