0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

一個更直觀的角度對當前經(jīng)典流行的GNN網(wǎng)絡(luò)

新機器視覺 ? 來源:極市平臺 ? 作者:極市平臺 ? 2021-06-18 11:39 ? 次閱讀

近年來,深度學習領(lǐng)域關(guān)于圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Networks,GNN)的研究熱情日益高漲,圖神經(jīng)網(wǎng)絡(luò)已經(jīng)成為各大深度學習頂會的研究熱點。GNN處理非結(jié)構(gòu)化數(shù)據(jù)時的出色能力使其在網(wǎng)絡(luò)數(shù)據(jù)分析、推薦系統(tǒng)、物理建模、自然語言處理和圖上的組合優(yōu)化問題方面都取得了新的突破。圖神經(jīng)網(wǎng)絡(luò)有很多比較好的綜述[1][2][3]可以參考,更多的論文可以參考清華大學整理的GNN paper list[4] 。本篇文章將從一個更直觀的角度對當前經(jīng)典流行的GNN網(wǎng)絡(luò),包括GCN、GraphSAGE、GAT、GAE以及graph pooling策略DiffPool等等做一個簡單的小結(jié)。

筆者注:行文如有錯誤或者表述不當之處,還望批評指正!

一、為什么需要圖神經(jīng)網(wǎng)絡(luò)?

隨著機器學習、深度學習的發(fā)展,語音、圖像、自然語言處理逐漸取得了很大的突破,然而語音、圖像、文本都是很簡單的序列或者網(wǎng)格數(shù)據(jù),是很結(jié)構(gòu)化的數(shù)據(jù),深度學習很善于處理該種類型的數(shù)據(jù)(圖1)。

361203c0-cf69-11eb-9e57-12bb97331649.jpg

圖1然而現(xiàn)實世界中并不是所有的事物都可以表示成一個序列或者一個網(wǎng)格,例如社交網(wǎng)絡(luò)、知識圖譜、復雜的文件系統(tǒng)等(圖2),也就是說很多事物都是非結(jié)構(gòu)化的。

3636433e-cf69-11eb-9e57-12bb97331649.jpg

圖2相比于簡單的文本和圖像,這種網(wǎng)絡(luò)類型的非結(jié)構(gòu)化的數(shù)據(jù)非常復雜,處理它的難點包括:

圖的大小是任意的,圖的拓撲結(jié)構(gòu)復雜,沒有像圖像一樣的空間局部性

圖沒有固定的節(jié)點順序,或者說沒有一個參考節(jié)點

圖經(jīng)常是動態(tài)圖,而且包含多模態(tài)的特征

那么對于這類數(shù)據(jù)我們該如何建模呢?能否將深度學習進行擴展使得能夠建模該類數(shù)據(jù)呢?這些問題促使了圖神經(jīng)網(wǎng)絡(luò)的出現(xiàn)與發(fā)展。

二. 圖神經(jīng)網(wǎng)絡(luò)是什么樣子的?

相比較于神經(jīng)網(wǎng)絡(luò)最基本的網(wǎng)絡(luò)結(jié)構(gòu)全連接層(MLP),特征矩陣乘以權(quán)重矩陣,圖神經(jīng)網(wǎng)絡(luò)多了一個鄰接矩陣。計算形式很簡單,三個矩陣相乘再加上一個非線性變換(圖3)。

365740c0-cf69-11eb-9e57-12bb97331649.jpg

圖3因此一個比較常見的圖神經(jīng)網(wǎng)絡(luò)的應(yīng)用模式如下圖(圖4),輸入是一個圖,經(jīng)過多層圖卷積等各種操作以及激活函數(shù),最終得到各個節(jié)點的表示,以便于進行節(jié)點分類、鏈接預(yù)測、圖與子圖的生成等等任務(wù)。

3694975e-cf69-11eb-9e57-12bb97331649.jpg

圖4上面是一個對圖神經(jīng)網(wǎng)絡(luò)比較簡單直觀的感受與理解,實際其背后的原理邏輯還是比較復雜的,這個后面再慢慢細說,接下來將以幾個經(jīng)典的GNN models為線來介紹圖神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程

三、圖神經(jīng)網(wǎng)絡(luò)的幾個經(jīng)典模型與發(fā)展

1 . Graph Convolution Networks(GCN)[5]GCN可謂是圖神經(jīng)網(wǎng)絡(luò)的“開山之作”,它首次將圖像處理中的卷積操作簡單的用到圖結(jié)構(gòu)數(shù)據(jù)處理中來,并且給出了具體的推導,這里面涉及到復雜的譜圖理論,具體推到可以參考[6][7]。推導過程還是比較復雜的,然而最后的結(jié)果卻非常簡單( 圖5)。

36a68f86-cf69-11eb-9e57-12bb97331649.jpg

圖5我們來看一下這個式子,天吶,這不就是聚合鄰居節(jié)點的特征然后做一個線性變換嗎?沒錯,確實是這樣,同時為了使得GCN能夠捕捉到K-hop的鄰居節(jié)點的信息,作者還堆疊多層GCN layers,如堆疊K層有:

36da215c-cf69-11eb-9e57-12bb97331649.png

上述式子還可以使用矩陣形式表示如下,

371b5e60-cf69-11eb-9e57-12bb97331649.jpg

其中是歸一化之后的鄰接矩陣,相當于給層的所有節(jié)點的embedding做了一次線性變換,左乘以鄰接矩陣表示對每個節(jié)點來說,該節(jié)點的特征表示為鄰居節(jié)點特征相加之后的結(jié)果。(注意將換成矩陣就是圖3所說的三矩陣相乘)那么GCN的效果如何呢?作者將GCN放到節(jié)點分類任務(wù)上,分別在Citeseer、Cora、Pubmed、NELL等數(shù)據(jù)集上進行實驗,相比于傳統(tǒng)方法提升還是很顯著的,這很有可能是得益于GCN善于編碼圖的結(jié)構(gòu)信息,能夠?qū)W習到更好的節(jié)點表示。

37356080-cf69-11eb-9e57-12bb97331649.jpg

圖6當然,其實GCN的缺點也是很顯然易見的,第一,GCN需要將整個圖放到內(nèi)存和顯存,這將非常耗內(nèi)存和顯存,處理不了大圖;第二,GCN在訓練時需要知道整個圖的結(jié)構(gòu)信息(包括待預(yù)測的節(jié)點), 這在現(xiàn)實某些任務(wù)中也不能實現(xiàn)(比如用今天訓練的圖模型預(yù)測明天的數(shù)據(jù),那么明天的節(jié)點是拿不到的)。2. Graph Sample and Aggregate(GraphSAGE)[8]為了解決GCN的兩個缺點問題,GraphSAGE被提了出來。在介紹GraphSAGE之前,先介紹一下Inductive learning和Transductive learning。注意到圖數(shù)據(jù)和其他類型數(shù)據(jù)的不同,圖數(shù)據(jù)中的每一個節(jié)點可以通過邊的關(guān)系利用其他節(jié)點的信息。這就導致一個問題,GCN輸入了整個圖,訓練節(jié)點收集鄰居節(jié)點信息的時候,用到了測試和驗證集的樣本,我們把這個稱為Transductive learning。然而,我們所處理的大多數(shù)的機器學習問題都是Inductive learning,因為我們刻意的將樣本集分為訓練/驗證/測試,并且訓練的時候只用訓練樣本。這樣對圖來說有個好處,可以處理圖中新來的節(jié)點,可以利用已知節(jié)點的信息為未知節(jié)點生成embedding,GraphSAGE就是這么干的。GraphSAGE是一個Inductive Learning框架,具體實現(xiàn)中,訓練時它僅僅保留訓練樣本到訓練樣本的邊,然后包含Sample和Aggregate兩大步驟,Sample是指如何對鄰居的個數(shù)進行采樣,Aggregate是指拿到鄰居節(jié)點的embedding之后如何匯聚這些embedding以更新自己的embedding信息。下圖展示了GraphSAGE學習的一個過程,

37664ac4-cf69-11eb-9e57-12bb97331649.jpg

圖7第一步,對鄰居采樣第二步,采樣后的鄰居embedding傳到節(jié)點上來,并使用一個聚合函數(shù)聚合這些鄰居信息以更新節(jié)點的embedding第三步,根據(jù)更新后的embedding預(yù)測節(jié)點的標簽接下來,我們詳細的說明一個訓練好的GrpahSAGE是如何給一個新的節(jié)點生成embedding的(即一個前向傳播的過程),如下算法圖:

37757828-cf69-11eb-9e57-12bb97331649.jpg

首先,(line1)算法首先初始化輸入的圖中所有節(jié)點的特征向量,(line3)對于每個節(jié)點,拿到它采樣后的鄰居節(jié)點后,(line4)利用聚合函數(shù)聚合鄰居節(jié)點的信息,(line5)并結(jié)合自身embedding通過一個非線性變換更新自身的embedding表示。注意到算法里面的,它是指聚合器的數(shù)量,也是指權(quán)重矩陣的數(shù)量,還是網(wǎng)絡(luò)的層數(shù),這是因為每一層網(wǎng)絡(luò)中聚合器和權(quán)重矩陣是共享的。網(wǎng)絡(luò)的層數(shù)可以理解為需要最大訪問的鄰居的跳數(shù)(hops),比如在圖7中,紅色節(jié)點的更新拿到了它一、二跳鄰居的信息,那么網(wǎng)絡(luò)層數(shù)就是2。為了更新紅色節(jié)點,首先在第一層(k=1),我們會將藍色節(jié)點的信息聚合到紅色解節(jié)點上,將綠色節(jié)點的信息聚合到藍色節(jié)點上。在第二層(k=2)紅色節(jié)點的embedding被再次更新,不過這次用到的是更新后的藍色節(jié)點embedding,這樣就保證了紅色節(jié)點更新后的embedding包括藍色和綠色節(jié)點的信息,也就是兩跳信息。為了看的更清晰,我們將更新某個節(jié)點的過程展開來看,如圖8分別為更新節(jié)點A和更新節(jié)點B的過程,可以看到更新不同的節(jié)點過程每一層網(wǎng)絡(luò)中聚合器和權(quán)重矩陣都是共享的。

3787f390-cf69-11eb-9e57-12bb97331649.jpg

圖8那么GraphSAGESample是怎么做的呢?GraphSAGE是采用定長抽樣的方法,具體來說,定義需要的鄰居個數(shù),然后采用有放回的重采樣/負采樣方法達到。保證每個節(jié)點(采樣后的)鄰居個數(shù)一致,這樣是為了把多個節(jié)點以及它們的鄰居拼接成Tensor送到GPU中進行批訓練。那么GraphSAGE 有哪些聚合器呢?主要有三個,

37a511d2-cf69-11eb-9e57-12bb97331649.jpg

這里說明的一點是Mean Aggregator和GCN的做法基本是一致的(GCN實際上是求和)。到此為止,整個模型的架構(gòu)就講完了,那么GraphSAGE是如何學習聚合器的參數(shù)以及權(quán)重矩陣呢?如果是有監(jiān)督的情況下,可以使用每個節(jié)點的預(yù)測lable和真實lable的交叉熵作為損失函數(shù)。如果是在無監(jiān)督的情況下,可以假設(shè)相鄰的節(jié)點的embedding表示盡可能相近,因此可以設(shè)計出如下的損失函數(shù),

37c57ed6-cf69-11eb-9e57-12bb97331649.jpg

那么GrpahSAGE的實際實驗效果如何呢?作者在Citation、Reddit、PPI數(shù)據(jù)集上分別給出了無監(jiān)督和完全有監(jiān)督的結(jié)果,相比于傳統(tǒng)方法提升還是很明顯。

37d4d2fa-cf69-11eb-9e57-12bb97331649.jpg

至此,GraphSAGE介紹完畢。我們來總結(jié)一下,GraphSAGE的一些優(yōu)點,(1)利用采樣機制,很好的解決了GCN必須要知道全部圖的信息問題,克服了GCN訓練時內(nèi)存和顯存的限制,即使對于未知的新節(jié)點,也能得到其表示(2)聚合器和權(quán)重矩陣的參數(shù)對于所有的節(jié)點是共享的(3)模型的參數(shù)的數(shù)量與圖的節(jié)點個數(shù)無關(guān),這使得GraphSAGE能夠處理更大的圖(4)既能處理有監(jiān)督任務(wù)也能處理無監(jiān)督任務(wù)(就喜歡這樣解決了問題,方法又簡潔,效果還好的idea?。。。┊斎唬珿raphSAGE也有一些缺點,每個節(jié)點那么多鄰居,GraphSAGE的采樣沒有考慮到不同鄰居節(jié)點的重要性不同,而且聚合計算的時候鄰居節(jié)點的重要性和當前節(jié)點也是不同的。3. Graph Attention Networks(GAT)[9]為了解決GNN聚合鄰居節(jié)點的時候沒有考慮到不同的鄰居節(jié)點重要性不同的問題,GAT借鑒了Transformer的idea,引入masked self-attention機制,在計算圖中的每個節(jié)點的表示的時候,會根據(jù)鄰居節(jié)點特征的不同來為其分配不同的權(quán)值。具體的,對于輸入的圖,一個graph attention layer如圖9所示,

37f22d3c-cf69-11eb-9e57-12bb97331649.jpg

圖9其中采用了單層的前饋神經(jīng)網(wǎng)絡(luò)實現(xiàn),計算過程如下(注意權(quán)重矩陣對于所有的節(jié)點是共享的):

38002c5c-cf69-11eb-9e57-12bb97331649.png

計算完attention之后,就可以得到某個節(jié)點聚合其鄰居節(jié)點信息的新的表示,計算過程如下:

384fd0c2-cf69-11eb-9e57-12bb97331649.png

為了提高模型的擬合能力,還引入了多頭的self-attention機制,即同時使用多個計算self-attention,然后將計算的結(jié)果合并(連接或者求和):

3885308c-cf69-11eb-9e57-12bb97331649.jpg

此外,由于GAT結(jié)構(gòu)的特性,GAT無需使用預(yù)先構(gòu)建好的圖,因此GAT既適用于Transductive Learning,又適用于Inductive Learning。那么GAT的具體效果如何呢?作者分別在三個Transductive Learning和一個Inductive Learning任務(wù)上進行實驗,實驗結(jié)果如下:

38ddcc38-cf69-11eb-9e57-12bb97331649.jpg

無論是在Transductive Learning還是在Inductive Learning的任務(wù)上,GAT的效果都要優(yōu)于傳統(tǒng)方法的結(jié)果。至此,GAT的介紹完畢,我們來總結(jié)一下,GAT的一些優(yōu)點,(1)訓練GCN無需了解整個圖結(jié)構(gòu),只需知道每個節(jié)點的鄰居節(jié)點即可(2)計算速度快,可以在不同的節(jié)點上進行并行計算(3)既可以用于Transductive Learning,又可以用于Inductive Learning,可以對未見過的圖結(jié)構(gòu)進行處理(仍然是簡單的idea,解決了問題,效果還好?。。。┑酱耍覀兙徒榻B完了GNN中最經(jīng)典的幾個模型GCN、GraphSAGE、GAT,接下來我們將針對具體的任務(wù)類別來介紹一些流行的GNN模型與方法。四、無監(jiān)督的節(jié)點表示學習(Unsupervised Node Representation)由于標注數(shù)據(jù)的成本非常高,如果能夠利用無監(jiān)督的方法很好的學習到節(jié)點的表示,將會有巨大的價值和意義,例如找到相同興趣的社區(qū)、發(fā)現(xiàn)大規(guī)模的圖中有趣的結(jié)構(gòu)等等。

390f7e54-cf69-11eb-9e57-12bb97331649.jpg

圖10這其中比較經(jīng)典的模型有GraphSAGE、Graph Auto-Encoder(GAE)等,GraphSAGE就是一種很好的無監(jiān)督表示學習的方法,前面已經(jīng)介紹了,這里就不贅述,接下來將詳細講解后面兩個。

Graph Auto-Encoder(GAE)[10]

在介紹Graph Auto-Encoder之前,需要先了解自編碼器(Auto-Encoder)、變分自編碼器(Variational Auto-Encoder),具體可以參考[11],這里就不贅述。理解了自編碼器之后,再來理解變分圖的自編碼器就容易多了。如圖11輸入圖的鄰接矩陣和節(jié)點的特征矩陣,通過編碼器(圖卷積網(wǎng)絡(luò))學習節(jié)點低維向量表示的均值和方差,然后用解碼器(鏈路預(yù)測)生成圖。

391f11ac-cf69-11eb-9e57-12bb97331649.png

圖11編碼器(Encoder)采用簡單的兩層GCN網(wǎng)絡(luò),解碼器(Encoder)計算兩點之間存在邊的概率來重構(gòu)圖,損失函數(shù)包括生成圖和原始圖之間的距離度量,以及節(jié)點表示向量分布和正態(tài)分布的KL-散度兩部分。具體公式如圖12所示:

39606a62-cf69-11eb-9e57-12bb97331649.jpg

圖12另外為了做比較,作者還提出了圖自編碼器(Graph Auto-Encoder),相比于變分圖的自編碼器,圖自編碼器就簡單多了,Encoder是兩層GCN,Loss只包含Reconstruction Loss。那么兩種圖自編碼器的效果如何呢?作者分別在Cora、Citeseer、Pubmed數(shù)據(jù)集上做Link prediction任務(wù),實驗結(jié)果如下表,圖自編碼器(GAE)和變分圖自編碼器(VGAE)效果普遍優(yōu)于傳統(tǒng)方法,而且變分圖自編碼器的效果更好;當然,Pumed上GAE得到了最佳結(jié)果??赡苁且驗镻umed網(wǎng)絡(luò)較大,在VGAE比GAE模型復雜,所以更難調(diào)參。

396ee786-cf69-11eb-9e57-12bb97331649.jpg

五、Graph PoolingGraph pooling是GNN中很流行的一種操作,目的是為了獲取一整個圖的表示,主要用于處理圖級別的分類任務(wù),例如在有監(jiān)督的圖分類、文檔分類等等。

398f9472-cf69-11eb-9e57-12bb97331649.jpg

圖13Graph pooling的方法有很多,如簡單的max pooling和mean pooling,然而這兩種pooling不高效而且忽視了節(jié)點的順序信息;這里介紹一種方法:Differentiable Pooling (DiffPool)。1.DiffPool[12]在圖級別的任務(wù)當中,當前的很多方法是將所有的節(jié)點嵌入進行全局池化,忽略了圖中可能存在的任何層級結(jié)構(gòu),這對于圖的分類任務(wù)來說尤其成問題,因為其目標是預(yù)測整個圖的標簽。針對這個問題,斯坦福大學團隊提出了一個用于圖分類的可微池化操作模塊——DiffPool,可以生成圖的層級表示,并且可以以端到端的方式被各種圖神經(jīng)網(wǎng)絡(luò)整合。DiffPool的核心思想是通過一個可微池化操作模塊去分層的聚合圖節(jié)點,具體的,這個可微池化操作模塊基于GNN上一層生成的節(jié)點嵌入以及分配矩陣,以端到端的方式分配給下一層的簇,然后將這些簇輸入到GNN下一層,進而實現(xiàn)用分層的方式堆疊多個GNN層的想法。(圖14)

39b7ccf8-cf69-11eb-9e57-12bb97331649.jpg

圖14那么這個節(jié)點嵌入和分配矩陣是怎么算的?計算完之后又是怎么分配給下一層的?這里就涉及到兩部分內(nèi)容,一個是分配矩陣的學習,一個是池化分配矩陣。

分配矩陣的學習

這里使用兩個分開的GNN來生成分配矩陣和每一個簇節(jié)點新的嵌入,這兩個GNN都是用簇節(jié)點特征矩陣和粗化鄰接矩陣作為輸入,

39cf39c4-cf69-11eb-9e57-12bb97331649.jpg

池化分配矩陣

計算得到分配矩陣和每一個簇節(jié)點新的嵌入之后,DiffPool層根據(jù)分配矩陣,對于圖中的每個節(jié)點/簇生成一個新的粗化的鄰接矩陣與新的嵌入矩陣,

39dd0054-cf69-11eb-9e57-12bb97331649.jpg

總的來看,每層的DiffPool其實就是更新每一個簇節(jié)點的嵌入和簇節(jié)點的特征矩陣,如下公式:

3a07c5b4-cf69-11eb-9e57-12bb97331649.png

至此,DiffPool的基本思想就講完了。那么效果如何呢?作者在多種圖分類的基準數(shù)據(jù)集上進行實驗,如蛋白質(zhì)數(shù)據(jù)集(ENZYMES,PROTEINS,D&D),社交網(wǎng)絡(luò)數(shù)據(jù)集(REDDIT-MULTI-12K),科研合作數(shù)據(jù)集(COLLAB),實驗結(jié)果如下:

3a366338-cf69-11eb-9e57-12bb97331649.jpg

其中,GraphSAGE是采用全局平均池化;DiffPool-DET是一種DiffPool變體,使用確定性圖聚類算法生成分配矩陣;DiffPool-NOLP是DiffPool的變體,取消了鏈接預(yù)測目標部分??偟膩碚f,DiffPool方法在GNN的所有池化方法中獲得最高的平均性能。為了更好的證明DiffPool對于圖分類十分有效,論文還使用了其他GNN體系結(jié)構(gòu)(Structure2Vec(s2v)),并且構(gòu)造兩個變體,進行對比實驗,如下表:

3a554596-cf69-11eb-9e57-12bb97331649.jpg

可以看到DiffPool的顯著改善了S2V在ENZYMES和D&D數(shù)據(jù)集上的性能。

3a8c43ca-cf69-11eb-9e57-12bb97331649.jpg

而且DiffPool可以自動的學習到恰當?shù)拇氐臄?shù)量。至此,我們來總結(jié)一下DiffPool的優(yōu)點,(1)可以學習層次化的pooling策略(2)可以學習到圖的層次化表示(3)可以以端到端的方式被各種圖神經(jīng)網(wǎng)絡(luò)整合然而,注意到,DiffPool也有其局限性,分配矩陣需要很大的空間去存儲,空間復雜度為,為池化層的層數(shù),所以無法處理很大的圖。

責任編輯:lq

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • 神經(jīng)網(wǎng)絡(luò)

    關(guān)注

    42

    文章

    4749

    瀏覽量

    100435
  • 深度學習
    +關(guān)注

    關(guān)注

    73

    文章

    5471

    瀏覽量

    120905
  • GNN
    GNN
    +關(guān)注

    關(guān)注

    1

    文章

    31

    瀏覽量

    6325

原文標題:圖神經(jīng)網(wǎng)絡(luò)入門必讀: 一文帶你梳理GCN, GraphSAGE, GAT, GAE, Pooling, DiffPool

文章出處:【微信號:vision263com,微信公眾號:新機器視覺】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏

    評論

    相關(guān)推薦

    使用SOLIDWORKS的直觀體驗

    在工業(yè)設(shè)計領(lǐng)域,SOLIDWORKS無疑是顆璀璨的明珠,它不僅以優(yōu)越的性能和強大的功能贏得了市場的廣泛認可,更以其直觀易用的操作界面和用戶體驗,成為了無數(shù)工程師和設(shè)計師的心頭好。作為名長期使用SOLIDWORKS的用戶,我深
    的頭像 發(fā)表于 07-24 15:07 ?243次閱讀
    使用SOLIDWORKS的<b class='flag-5'>直觀</b>體驗

    方向角度傳感器故障怎么解決

    傳感器的工作原理 方向角度傳感器通常采用霍爾效應(yīng)原理,通過測量磁場的變化來確定物體相對于參考方向的角度。傳感器內(nèi)部有磁敏感元件,當磁場發(fā)生變化時,元件會產(chǎn)生
    的頭像 發(fā)表于 07-22 16:57 ?390次閱讀

    Transformer能代替圖神經(jīng)網(wǎng)絡(luò)

    Transformer作為種在處理序列數(shù)據(jù)方面表現(xiàn)出色的深度學習模型,自其提出以來,已經(jīng)在自然語言處理(NLP)、時間序列分析等領(lǐng)域取得了顯著的成果。然而,關(guān)于Transformer是否能完全代替圖神經(jīng)網(wǎng)絡(luò)GNN)的問題,需
    的頭像 發(fā)表于 07-12 14:07 ?359次閱讀

    如何編寫BP神經(jīng)網(wǎng)絡(luò)

    傳播過程,即誤差從輸出層反向傳播回輸入層,并據(jù)此調(diào)整網(wǎng)絡(luò)參數(shù)。本文將詳細闡述如何編寫BP神經(jīng)網(wǎng)絡(luò),包括網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計、前向傳播、損失函數(shù)計
    的頭像 發(fā)表于 07-11 16:44 ?401次閱讀

    經(jīng)典卷積網(wǎng)絡(luò)模型介紹

    經(jīng)典卷積網(wǎng)絡(luò)模型在深度學習領(lǐng)域,尤其是在計算機視覺任務(wù)中,扮演著舉足輕重的角色。這些模型通過不斷演進和創(chuàng)新,推動了圖像處理、目標檢測、圖像生成、語義分割等多個領(lǐng)域的發(fā)展。以下將詳細探討幾個經(jīng)典的卷積
    的頭像 發(fā)表于 07-11 11:45 ?421次閱讀

    SolidWorks教育版易于使用 直觀的體驗

    在當今數(shù)字化教育的浪潮中,工程設(shè)計和制造專業(yè)的學生們正面臨著學習挑戰(zhàn)與機遇。SolidWorks教育版作為款專為學生打造的3D CAD設(shè)計軟件,憑借其易于使用、直觀的體驗,成為了學生們學習與實踐的得力助手。
    的頭像 發(fā)表于 05-30 15:20 ?207次閱讀
    SolidWorks教育版易于使用 <b class='flag-5'>直觀</b>的體驗

    新的積木編程工具:Node-App

    、OLED、TFT顯示屏之外,又添加了更靈活的網(wǎng)絡(luò)接口。這里就有問題,網(wǎng)絡(luò)界面不僅需要在硬件上實現(xiàn)功能,還需要構(gòu)建
    發(fā)表于 05-28 15:55

    verilog的135經(jīng)典實例

    verilog的135經(jīng)典實例
    發(fā)表于 02-02 10:17 ?14次下載

    5g網(wǎng)絡(luò)當前毫米波支持的最大載波帶寬是多少

    來前所未有的連接能力和新興技術(shù)的應(yīng)用,如物聯(lián)網(wǎng)、車聯(lián)網(wǎng)和虛擬現(xiàn)實。 在5G網(wǎng)絡(luò)中,毫米波技術(shù)被廣泛應(yīng)用于高速數(shù)據(jù)傳輸。毫米波波段屬于無線通信頻譜的新領(lǐng)域,其工作頻段通常在30GHz到300GHz之間。相比之下,4G
    的頭像 發(fā)表于 01-09 14:37 ?2077次閱讀

    ADIS16375的陀螺儀輸出角度什么樣的角度?

    想知道ADIS16375這款I(lǐng)MU的輸出角度什么樣的角度?是不是姿態(tài)角?其參考坐標系是什么?輸出角的實時精度是多少?ADIS16365、ADIS16334、ADIS16445、ADIS16485這四款I(lǐng)MU能夠輸出
    發(fā)表于 12-29 06:17

    電機電角度和機械角度的關(guān)系

    ,以及它們在電機控制和應(yīng)用中的重要性。 首先,讓我們來了解下電機電角度和機械角度的定義。 電角度: 電機電角度是指電機旋轉(zhuǎn)
    的頭像 發(fā)表于 12-27 18:03 ?4515次閱讀

    【先楫HPM5361EVK開發(fā)板試用體驗】PWM輸出

    實驗說明: 本次實驗主要演示PWM波形,并通過MCU的引腳進行輸出。通過示波器,可以依次觀測到開發(fā)板的PWM_WH端輸出的PWM。 為了更直觀地感受PWM的變化,外接了LED燈。PWM波形
    發(fā)表于 12-21 00:14

    如何設(shè)置兩路由器使用同一個Wi-Fi網(wǎng)絡(luò)?

    如何設(shè)置兩路由器使用同一個Wi-Fi網(wǎng)絡(luò) 隨著無線網(wǎng)絡(luò)的普及和需求量的增加,很多家庭和辦公室都會購買多個路由器來擴展無線網(wǎng)絡(luò)覆蓋范圍。然而
    的頭像 發(fā)表于 12-11 10:50 ?1.2w次閱讀

    200經(jīng)典C程序【源碼】

    電子發(fā)燒友網(wǎng)站提供《200經(jīng)典C程序【源碼】.zip》資料免費下載
    發(fā)表于 11-21 10:34 ?2次下載
    200<b class='flag-5'>個</b><b class='flag-5'>經(jīng)典</b>C程序【源碼】

    178經(jīng)典c語言源代碼+算法大全

    電子發(fā)燒友網(wǎng)站提供《178經(jīng)典c語言源代碼+算法大全.rar》資料免費下載
    發(fā)表于 11-21 10:19 ?6次下載
    178<b class='flag-5'>個</b><b class='flag-5'>經(jīng)典</b>c語言源代碼+算法大全