網路表示學習論文引介
來自專欄 RUC智能情報站
前言:我們生活在一個信息網路無處不在的互聯世界。信息網路的一些例子包括社交網路,出版網路,萬維網和電子商務網路。網路可以用鄰接矩陣表示,然而這類表示過於稀疏和高維。網路表示學習旨在學習節點低維表示,學習到的節點表示已被證明可以用於各種網路分析任務,如鏈接預測和節點分類。本文將介紹WSDM2018中一項嵌入複雜網路的工作,以及在網路表示學習的研究中常常作為baseline的兩個演算法LINE和DeepWalk。
本文作者:谷琪,2014級本科生,來自中國人民大學信息學院社會大數據分析與智能實驗室。
備註:本文首發於知乎[RUC智能情報站],如需轉載請告知作者並註明本專欄文章地址。
論文一 《Multi-Dimensional Network Embedding with Hierarchical Structure》WSDM2018
1.想法
受word2vec的啟發,近年提出了DeepWalk和LINE,這類可以應用於超大規模網路的嵌入演算法。而現有的大多數方法不能直接應用於結構更加複雜的網路。文章定義了一種如圖1所示的具有層次結構的多維網路,並提出了一個嵌入這類複雜網路的框架MINES。
2.問題定義
假設網路中總共有 種類型的節點,並且令 為第 種類型的節點集合,集合大小為 。令 表示所有類型節點的集合 。
網路中某些類別的可能呈現層次結構。 換句話說,這些節點與類別相關聯。我們令 為第種類型節點的類別集合,集合大小為 。並令 為描述第種節點類別信息的矩陣。
兩個節點間可以通過多個關係連接,我們將每種關係視為一個維度。因此,同一類型或不同類型的節點可以連接在同一維度上。這些連接可以通過鄰接矩陣(對於相同類型的節點)和交互矩陣(對於不同類型的節點)來描述。令 表示第種節點在第維的的鄰接矩陣,令 表示第種節點和第種節點在第 維的交互矩陣。
我們旨在學習網路結構中每個維度中節點的表示。令 表示第種節點在第()維度的表示,其中是該多維網路的維數。
基於前述的符號和定義,我們的問題可以如下的定義:
給定
- K個不同的節點集合,
- 節點間多維的關係, 和
- 層次信息,
我們旨在在每個維度(學習所有節點的一組表示
3.模型
首先,為了獲取網路結構的多維關係,給定維度 ,一個節點的表示 應包括兩個組件(1)一個組件 用於保留跨緯度的依賴信息;以及(2)一個組件 用於保留 維度的獨立信息。因此將 重寫為: 。其中 是組合依賴組件 和獨立組件 的函數。在實驗中,作者選擇了線性函數。
其次,為了獲取網路結構的層次結構,對於這些具有層次結構的節點,還需要對其類別信息(或父母節點)進行建模。類別信息實際上是由所有維度共享的,因此作者認為它應在表示的依賴組件中。進一步的,節點表示的依賴組件 應該包含(1)一個組件 表示類別信息,以及(2)一個組件 表示該節點的特定信息,即 。其中 是組合類別信息 和節點特定信息 的函數。在實驗中,作者選擇了線性函數。
最後,使用skip-gram模型對網路進行建模。給定維度 ,以及一個中心節點 ,我們需要預測其「上下文」。對「上下文」由 生成的概率建模:
其中 表示 維中,與節點 相連的第 類節點節點集合。同時 使用softmax函數建模。
對於 個維度的所有的節點 ,最大化 由 生成的概率:
論文二 《DeepWalk: Online Learning of Social Representations》KDD2014
1. 想法
相似的節點具有相似的表示。在DeepWalk中作者認為,在通過隨機遊走生成的遊走序列中,目標點與在一個窗口長度內的其餘點,是相似的。
2. 模型
對於每一組節點對 , 由 生成的條件概率使用層次softmax建模。最大化所有目標點和與之相似的點共同出現的概率。
論文三 《LINE:Large-scale Information Network Embedding》WWW2015
1. 想法
相似的節點具有相似的表示。在LINE中作者認為(1)直接相連的兩點是相似的;(2)具有類似鄰節點的兩點是相似的。
一個示例圖如圖2所示,其中節點6和節點7屬於第一種相似,節點5和節點6屬於第二種相似。
2.模型
第一種相似作者稱之為一階相似,對於每一條邊, 一階相似的概率 使用sigmoid函數建模。並定義出對應的經驗概率 ,其中 是所有邊的權重之和。最小化模型概率和經驗概率的距離。
第二種相似作者稱之為二階相似,對於每一條邊, 由 生成的條件概率 使用softmax函數建模。並定義出對應的經驗概率 ,其中 是節點 的出度。同樣是最小化模型概率和經驗概率的距離。
推薦閱讀:
※單純形演算法的原理和示例實現
※損失函數——負對數似然
※機器翻譯不可不知的Seq2Seq模型
※Hinton神經網路課第二講筆記:感知機
※Hulu機器學習問題與解答系列 | 十六:經典優化演算法
TAG:機器學習 |