天天看點

《中國人工智能學會通訊》——3.2 基于網絡結構資訊的網絡表示方法

基于網絡結構資訊的網絡表示方法隻考慮網絡節點之間的連結關系。給定網絡圖 G=(V, E)。其中V 表示網絡中的節點集合;E 是網絡中的邊集合

《中國人工智能學會通訊》——3.2 基于網絡結構資訊的網絡表示方法

網絡表示學習的目的在于從網絡資訊中學習得到各個節點的低維表示

《中國人工智能學會通訊》——3.2 基于網絡結構資訊的網絡表示方法

是向量的次元。

這部分分别介紹 DeepWalk、LINE 和 GraRep三種模型。其中 DeepWalk 是以 Skip-gram 模型為基礎,本質上使用了二階的網絡上下文資訊;LINE模型顯示地提出了網絡表示方法的目标函數,考慮了一階和二階的上下文資訊;GraRep 對 LINE 模型進行了拓展,可以對節點的任意階上下文資訊模組化。

DeepWalk 模型

DeepWalk 模型首先采用随機遊走 (randomwalk) 的方法産生标準的輸入序列,然後使用 Skip-gram 模型對序列模組化得到網絡節點表示(具體算法見表 1)。随機遊走首先基于均勻分布得到序列的起始點,然後從目前點的鄰居節點中随機選擇一點作為後續節點,依次疊代直到産生特定長度的序列。

《中國人工智能學會通訊》——3.2 基于網絡結構資訊的網絡表示方法

相比基準的模型方法 (Spectral Clustering [7] 、Modularity [8] 、EdgeCluster [22] 、wvRN [23] ),DeepWalk 模型有效地解決了訓練資料稀疏的問題,在訓練資料較少的情況下,F 1 值上有 10% 的提高。在一些标準資料集中,僅使用 60% 的訓練資料 DeepWalk 模型就可以超過使用 100% 訓練資料的所有基準方法。

LINE 模型

文獻 [17] 提出了一種适用于不同類别網絡圖結構(有向圖、無向圖和權重圖)的網絡學習模型LINE。具體上,LINE 模型從一階相似性 (first-orderproximity) 和二階相似性 (second-order proximity)兩方面設計目标函數。基于一階或者二階相似性,LINE 模型可以分别學習到一種網絡表示。為了同時使用這兩種相似性,LINE 模型将一階節點向量和二階節點向量拼接起來作為最終的節點表示。

一階相似性表示網絡中兩個節點之間的點對相似性,具體為節點之間邊的權重(如果點對不存在邊,則其一階相似性為 0)。為了模組化一階相似性,模型首先定義點對 υ i 和 υ j 聯合機率為

《中國人工智能學會通訊》——3.2 基于網絡結構資訊的網絡表示方法

其中 和 分别是節點υ i 和節點υ j 的向量表示。節點υ i 和υ j 的經驗聯合機率為

《中國人工智能學會通訊》——3.2 基于網絡結構資訊的網絡表示方法

表示邊 (i, j) 上的權重,

《中國人工智能學會通訊》——3.2 基于網絡結構資訊的網絡表示方法

。一階相似性模型通過最小化機率分布

《中國人工智能學會通訊》——3.2 基于網絡結構資訊的網絡表示方法

的KL距離來獲得網絡表示。

二階相似性模型假設如果節點間共享相似的鄰居節點,那麼兩者就趨于相似。具體上,點對之間的二階相似性表示兩個節點在整個網絡上的一階相似性的分布相似度(如果點對沒有共同的相鄰節點,則二階相似性為 0)。在這種情況下,每個節點有目标節點和其他節點的上下文兩個角色。形式上,用 和 分别指 υ i 作為目标節點的表示和 υ i 作為其他節點上下文的表示。二階相似性模型首先定義節點 υ i 和 υ j 的條件機率為

《中國人工智能學會通訊》——3.2 基于網絡結構資訊的網絡表示方法

節點 υ i 和 υ j 的經驗條件機率

《中國人工智能學會通訊》——3.2 基于網絡結構資訊的網絡表示方法

,其中 d i是節點 υ i 的出度。通過最小化機率分布與之間的 KL 距離來獲得二階相似性模型的網絡表示。

一階相似性和二階相似性模型都采用了基于邊的負采樣優化方法來得到網絡節點表示。實驗表明LINE 模型在語言網絡、社交網絡和論文引用網絡的資料集上均超過了 DeepWalk 模型和基于随機梯度的矩陣分解方法[24] 。

GraRep 模型

文獻 [18] 指出 LINE 模型中的一階相似性和二階相似性分别捕捉到節點間一階和二階的局部資訊(如圖 1(a)和(b)所示),并在此基礎上提出更一般化的模型 GraRep。GraRep 模型可以捕捉更高階的網絡資訊(如圖 1(c)和(d)所示),并對每一階的局部資訊分别模組化,最後串接各階網絡表示得到最終節點表示。

《中國人工智能學會通訊》——3.2 基于網絡結構資訊的網絡表示方法

GraRep 模型基于機率轉移矩陣來獲得網絡表示。首先定義一階機率轉移矩陣 A=D -1 S,其中 S 為鄰接矩陣(S ij =wei ij )、D 為度對角矩陣 (degreematrix)。所得到的A ij 是節點υ i 到υ j 的一階轉移機率。進一步,通過計算 可以得到 k 階機率轉移矩陣。GraRep 模型優化目标在于最大化 (c, w) 對的出現機率,同時最小化随機産生的 (c', w) 出現的機率,其中 w 為目标詞、c 是 w 的上下文詞、c' 是随機得到的上下文詞。采用負采樣的方法模組化 k 階資訊,考慮 (c, w) 的出現機率,最大化的目标函數為

《中國人工智能學會通訊》——3.2 基于網絡結構資訊的網絡表示方法

其中 表示從 w 到 c 的 k 步轉移機率;σ(·)是 sigmoid 函數;λ 是負例的個數;上下文詞c出現的機率為

《中國人工智能學會通訊》——3.2 基于網絡結構資訊的網絡表示方法

根據文獻[25],優化上述式子本質上等價于将矩陣Y分解成W和C,其中 W 的每一行代表節點的表示,而 C 中的每一清單示節點作為上下文的表示。

GraRep 模型采用 SVD 矩陣分解的方法來得到網絡節點的表示。相比 DeepWalk 和 LINE 模型,GraRep 模型考慮了更高階的上下文資訊,在網絡結構資料上得到了更好的效果。值得一提的是,雖然在文獻 [18] 中,GraRep 模型使用了複雜度較高的 SVD 矩陣分解的方法,但它也可以采用随機梯度下降的優化方法,是以該模型同樣适用于大規模的網絡結構。

繼續閱讀