Representation Learning on Graphs: Methods and Applications まとめ
Kenshin Abe
Introduction
- "Representation Learning on Graphs: Methods and Applications"というsurvey論文のまとめです。
- グラフから、機械学習の入力として簡単に利用できる特徴量を抽出。
やりたいこと
- 無向グラフ\(G = (V, E)\)が与えられる。
(隣接行列\(A\), 頂点の特徴量\(X \in R^{m * |V|}\))
- 各頂点またはsubgraphについて、embedding
\(z \in R^d (d << |V|)\)
を出力。(後に機械学習で問題を解くときに、必要な情報が復元できるような形にしたい)
- 今回は頂点についてのembeddingのみ扱う。
Encoder Decoder
- この論文で提案されている統一的なフレームワーク
- \(ENC: V \to R^d\)
d次元のベクトル(embeddings)に圧縮
- \(DEC: R^d * R^d \to R^+\)
(多くの場合で使われるpairwise decoder)
元のグラフでのsimilarity\(s_G(v_i, v_j)\)に近似したい
- \(L = \sum_{(v_i, v_j) \in{D}} l(DEC(z_i, z_j), s_G(v_i, v_j))\)
損失関数
既存手法 vs 新規手法
- 既存手法は、人間が調整して機械学習に投げる前の前処理という側面が大きい。
- degree statistics
- graph kernel
- その他手動のヒューリスティクス
- 新規手法は、エンコード手法そのものを機械学習で学習。
- Shallow Embedding
- Neighborhood Autoencoder Methods
- Neighborhood Aggregation and Convolutional Encoders
Shallow Embedding
- \(ENC(v_i) = Z v_i\) (\(Z \in R^{d * |V|}, v_i\)はワンホットなベクトル)
- Factorization-based
- Random Walk
- 頂点ごとにパラメータが独立なので冗長な可能性が高い
- Encodeの際に元のグラフの頂点の特徴量をうまく扱えない
- 動的なグラフに対応できない
Neighborhood Autoencoder Methods
- unary decoderを採用。
- \(DEC(ENC(s_i)) \approx s_i\) を目指す
(\(s_i\)は頂点iのsimilarity vector)
- deep autoencodersにより次元を下げる。
- SDNE, DNGR(\(s_i\)とautoencodersの最適化手法が違う)
- autoencodersのinputサイズが\(|V|\)なので計算量が大変
- 動的なグラフに対応できない
Neighborhood Aggregation and Convolutional Encoders
- 頂点の特徴量\(x_i \in R^m\)をaggregationしていく。
- Graph Convolutional Networks
- column networks
- GraphSAGE algorithm
- \(AGGREGATE_k, W^k\)を学習
- ほぼ\(|V|\)の線形時間
- 動的なグラフもok(訓練中に存在しなかった頂点にも対応)
今後
- Subgraph Embeddings
- GCNの具体的手法の論文
- NP困難問題を解く論文
Representation Learning on Graphs
By knshnb
Representation Learning on Graphs
- 44