天天看點

推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation

文章目錄

    • 簡介
    • Introduction
    • Main contributions
    • Model
      • Model prediction
      • Model optimization
    • Experiments

簡介

WWW 2021
推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation

非常新的論文,而且作者是國内非常有名的組。

我主要分享一些我認為比較重要的幹貨,如果同學想很詳細的了解的話還請從網上下載下傳或者評論裡面發給我郵箱。

Introduction

目前的基于圖卷積的方法主要存在以下兩個方面的drawbacks:

  1. user intents

    對于使用者意圖的研究在現有方法中鮮有提到,沒有一種方法考慮了更細粒度intent的user-item關系。

    作者的工作将更細粒度的考慮user-item之間的intent特點。

  2. relational paths

    SOTA方法中大多數考慮node之間的傳遞和聚合,鮮有考量傳遞路徑中path的影響。

    本文将探索關系的依賴性,進而來保證long-range語義的連接配接。

綜上所述,本文的工作分為兩個重要的部分:

  1. user Intents
推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation

在上圖中,左邊的部分是現有的方法,這是一個包含user items KGEntities三種節點,user-item 、item-kgentity兩種邊的異構圖。

作者認為此時左邊的這幅圖缺少fine-grained的intent模組化,于是右邊是本文的工作,增加了 p 1 , p 2 p_1, p_2 p1​,p2​兩個顯式的user intents(這裡圖中隻畫了兩個,這其實是一個超參,可以進行調整的)。

對于p的表示是根據item-enitty的聯系得到的:

推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation

這裡說一下我自己的了解,同樣我們用上圖舉例,什麼是user Intents:

這裡我們根據kg relations可以看出這應該是一個電影推薦場景,然後對于使用者我們認為,有的使用者關注同一個影星star,會因為兩個不同電影有同一個演員而看另一部電影。

那麼同樣就存在有的使用者因為另一部電影有相同的導演而選擇看另一部電影。

這就是user intent利用relation建立p的解釋,當然這是我自己的了解,歡迎大家指正。

  1. Relational paths

第二個部分就是relational paths:

推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation

如上圖所示,左邊表示現有的研究一般是node-based 聚合,這裡作者考慮relation的關系,如右圖所示。

Main contributions

  1. 在基于KG的推薦中揭示互動背後的使用者意圖,提高模型容量和解釋能力
  2. 提出了一個新的模型KGIN,該模型考慮了GNN範式下更細粒度的意圖和關系路徑的遠端語義下的使用者項關系
  3. 在三個基準資料集上進行實證研究,以證明KGIN的優越性

Model

同樣是兩個最重要的部分,我們分别講清楚這兩個部分就明白了這個模型的核心部分。

  • user intent modeling
    推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation
    這裡作者隻是增加了一個p節點層,是以隻要明白如何獲得p就可以了:
推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation

這裡使用的方法就是将p和KG中的所有relation進行attention處理,然後進行求和。

我了解每個intent p主要是對于不同的relation的關注程度。

但是這裡又一個問題,就是很可能最後得到的每個p是相似的,這種情況是不正确的,作者提出Distance correlation來解決這個問題:

推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation

可以這麼了解,訓練的過程中希望 L I N D L_{IND} LIND​的數值越小越好。也就是使得每個p的相關性越小越好,也就是越獨立越好。

  • relational path-aware aggregation
推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation

這裡可以看到一條完整的路徑,從v1和v2到i1然後再到u1。

計算一層可以了解為向前傳遞一層,然後在擷取user representation的時候又一個 β \beta β參數,用來衡量不同的使用者對于不同的intent p的權重:

推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation

然後我們将上面這幅圖的左邊和右邊放在一起:

推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation

每一條綠色的path就是relational paths,他在計算的時候的疊代過程是:

推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation

這裡看上去非常晦澀,就像我上面提到的每一層的計算就相當于向前傳遞了一次,然後我們用公示來表示圖的疊代更新計算就可以用下面的這個式子來表示。當然這裡看不懂也沒有關系,這個思路并不是表面上這麼難了解,而且也不是這篇論文主要問題。

Model prediction

推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation

這裡并不再贅述。

Model optimization

在模型的loss設計上有兩個部分組成。

推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation

首先用了BPRloss,他的思想是希望正樣本和負樣本的“距離”越大越好。

然後在加上前面提到的 L I N D L_{IND} LIND​。

Experiments

  • dataset
推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation
  • result
推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation

對于kg中跳數的驗證:

推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation

對于independence modeling的驗證:

推薦系統論文 Learning Intents behind Interactions with Knowledge Graph for Recommendation
大家共勉~~

繼續閱讀