【阅读笔记】Bringing Your Own View: Graph Contrastive Learning without Prefabricated Data Augmentations

【阅读笔记】WSDM 2022 - Bringing Your Own View: Graph Contrastive Learning without Prefabricated Data Augmentations

  • 1 引言
  • 2 相关工作
    • 2.1 Graph contrastive learning.
    • 2.2 Learnable prior.
    • 2.3 Graph generative model.
  • 3 方法
    • 3.1 可学习先验的图生成模型
    • 3.2 对比学习先验的原则
  • 4 实验
    • 4.1 与最先进水平的比较
      • 4.1.1 半监督学习
      • 4.1.2 迁移学习
    • 4.2 进一步分析
      • 4.2.1图形生成质量通常与下游性能保持一致
      • 4.2.2 单独使用分子特异性生成器对分子数据集没有显著的好处。
      • 4.2.3 调整原则性奖励超参数可以进一步增强竞争性能。
      • 4.2.4 生成图连接稀疏,以捕捉模式。
  • 5 总结

1 引言

非欧几里德结构化数据的自监督学习最近引起了广泛的兴趣,它能够从未标记的图数据中学习可推广、可转移和鲁棒性的表示。与图像、语音或自然语言不同,图形结构数据不是单态的,而是各种性质的抽象(例如社交网络、聚合物或电网)。然而,这种独特的异质性挑战在以前的自监督工作中没有得到充分解决。
现有方法的成功依赖于精心设计的具有领域专业知识的预测性借口任务(例如,上下文预测、元路径提取、图完成等),前提是指定的任务是所有

你可能感兴趣的:(阅读笔记,深度学习)