Variational graph auto-encoders (VGAE)

Contents

  • Variational graph auto-encoders (VGAE)
    • Graph Auto-Encoders (GAE)
    • Variational graph auto-encoders (VGAE)
  • References

Variational graph auto-encoders (VGAE)

Graph Auto-Encoders (GAE)

Definitions

  • 给定一个无向无权图 G = ( V , E ) \mathcal G=(\mathcal V,\mathcal E) G=(V,E) N = ∣ V ∣ N=|\mathcal V| N=V 为顶点数, A ∈ R N × N \boldsymbol A\in\R^{N\times N} ARN×N 为邻接矩阵 (对角线元素为 1), X ∈ R N × D \boldsymbol X\in\R^{N\times D} XRN×D 为结点的特征向量

Graph Auto-Encoders

Variational graph auto-encoders (VGAE)_第1张图片

  • GAE 中的 EncoderGCN,它负责由邻接矩阵和结点特征编码得到每个结点的 embedding 向量 z i z_i zi ( i = 1 , . . . , N i=1,...,N i=1,...,N),它们构成了结点 embedding 矩阵 Z ∈ R N × F \boldsymbol Z\in\R^{N\times F} ZRN×F
  • GAE 中的 Decoder 为一个简单的 inner product decoder,它负责由结点的 embedding 向量 Z \boldsymbol Z Z 来重构邻接矩阵 A ^ \hat \boldsymbol A A^。它通过计算 σ ( z i T z j ) \sigma(z_i^Tz_j) σ(ziTzj) 来决定 A ^ i j \hat \boldsymbol A_{ij} A^ij
    在这里插入图片描述

A framework for unsupervised learning on graph-structured data

  • GAE 引入自编码器来处理图数据,可以基于图数据进行无监督学习

Variational graph auto-encoders (VGAE)

  • VGAE 在 GAE 的基础上进一步引入了 变分自编码器 (VAE) 的思想,对 latent space 施加正则化来保证一个 regular latent space
    Variational graph auto-encoders (VGAE)_第2张图片

  • VGAE 假设先验概率服从标准正态分布
    p ( Z ) = ∏ i p ( z i ) = ∏ i N ( z i ∣ 0 , I ) p(\boldsymbol Z)=\prod_i p(z_i)=\prod_i \mathcal N(z_i|0,\boldsymbol I) p(Z)=ip(zi)=iN(zi0,I)
  • 似然点积模型得到
    在这里插入图片描述
  • 后验概率变分推理近似得到,概率分布族为协方差矩阵为对角矩阵的正态分布
    在这里插入图片描述其中, μ = GCN μ ( X , A ) \mu=\text{GCN}_\mu(\boldsymbol X,\boldsymbol A) μ=GCNμ(X,A) 为 GCN 输出的后验概率分布均值向量, log ⁡ σ = GCN σ ( X , A ) \log\sigma=\text{GCN}_\sigma(\boldsymbol X,\boldsymbol A) logσ=GCNσ(X,A) 为 GCN 输出的后验概率分布标准差的对数。 GCN \text{GCN} GCN 为一个简单的 2 层 GCN,可以被表示为 GCN ( X , A ) = A ~ RELU ( A ~ X W 0 ) W 1 \text{GCN}(\boldsymbol X,\boldsymbol A)=\tilde \boldsymbol A\text{RELU}(\tilde \boldsymbol A\boldsymbol X\boldsymbol W_0)\boldsymbol W_1 GCN(X,A)=A~RELU(A~XW0)W1,其中 W i \boldsymbol W_i Wi 为 MLP 权重矩阵, A ~ = D − 1 2 A D − 1 2 \tilde \boldsymbol A=\boldsymbol D^{-\frac{1}{2}}\boldsymbol A\boldsymbol D^{-\frac{1}{2}} A~=D21AD21 为归一化的邻接矩阵, D \boldsymbol D D 为度矩阵 (一个对角矩阵,对角元素为各个顶点的度数),左乘 D − 1 2 \boldsymbol D^{-\frac{1}{2}} D21 会使得 A \boldsymbol A A 的第 i i i 行除以结点 i i i 度数的根号,右乘 D − 1 2 \boldsymbol D^{-\frac{1}{2}} D21 会使得 A \boldsymbol A A 的第 i i i 列除以结点 i i i 度数的根号,因此 A ~ i j = A i j / ( D i i D j j ) \tilde\boldsymbol A_{ij}=\boldsymbol A_{ij}/(\sqrt{\boldsymbol D_{ii}\boldsymbol D_{jj}}) A~ij=Aij/(DiiDjj ),相当于是给邻接矩阵根据度数做了一个归一化。 A ~ X = [ a ~ 1 T X . . . a ~ N T X ] \tilde \boldsymbol A\boldsymbol X=\begin{bmatrix} \tilde a_1^T\boldsymbol X\\...\\\tilde a_N^T\boldsymbol X\end{bmatrix} A~X=a~1TX...a~NTX 是在进行结点的信息聚合。 GCN μ ( X , A ) \text{GCN}_\mu(\boldsymbol X,\boldsymbol A) GCNμ(X,A) GCN σ ( X , A ) \text{GCN}_\sigma(\boldsymbol X,\boldsymbol A) GCNσ(X,A) 共享第一层的权重 W 0 \boldsymbol W_0 W0
  • 由变分推理得到的优化问题为最大化下式:
    在这里插入图片描述

References

  • Kipf, Thomas N., and Max Welling. “Variational graph auto-encoders.” arXiv preprint arXiv:1611.07308 (2016).
  • Wu, Zonghan, et al. “A comprehensive survey on graph neural networks.” IEEE transactions on neural networks and learning systems 32.1 (2020): 4-24.
  • code: https://github.com/DaehanKim/vgae_pytorch

你可能感兴趣的:(图模型,机器学习,人工智能,深度学习)