小白科研笔记:简析论文DeepGCNs: Can GCNs Go as Deep as CNNs

1. 前言

这篇博客主要分析一篇ICCV 2019的一篇深度图卷积网络性能的文章DeepGCNs: Can GCNs Go as Deep as CNNs。这篇文章的核心创新点是把残差连接(Residual Connection)和全连接方式(Dense Connection)从二维卷积迁移到图卷积中,同时把空洞卷积(Dilated Convolution)概念延伸至图卷积中。这篇文章其实比较通俗易懂,咱就直接讲解核心点。

2. 创新点

2.1 图神经网路的残差连接

作者所做的所有实验都是关于室内场景下点云语义分割的。语义分割的整体网络如下面的左图所示,分为Backbone BlockFusion Block,和Prediction Block三个部分组成。无论是图神经网络的普通连接形式,残差连接形式,亦或是全连接形式,都是在Backbone Block上做改进。残差连接的图神经网络(ResGCN)如下图所示,形式上和二维卷积残差连接是一样的。

小白科研笔记:简析论文DeepGCNs: Can GCNs Go as Deep as CNNs_第1张图片
图1:图卷积网络的残差连接和全连接示意图

2.2 图神经网络的全连接

全连接的图神经网络(DenseGCN)如上图右图所示,形式上和二维卷积全连接是一样的。

2.3 图神经网络的空洞卷积

空洞卷积的概念来自二维卷积。这篇论文的作者做了推广,如下图所示。二维卷积的空洞卷积非常好理解。扩展到图卷积中,“空洞”的概念就跟近邻点距离有关系。拿KNN近邻图举例,给目标点周围的点按照距离远近排好顺序。如果是普通图卷积,就取距离顺序为1,2,3,4(间距为1)的近邻点计算目标点的特征。如果是空洞卷积,可能取距离顺序为1,3,5,7(间距为2),或者1,5,9,13(间距为4)的近邻点计算目标点的特征。

小白科研笔记:简析论文DeepGCNs: Can GCNs Go as Deep as CNNs_第2张图片
图2:二维卷积和图卷积的空洞卷积示意图

2.4 实验结果

作者做了一个非常详尽的实验,如下所示。可以学习一下作者设计实验的思路。编号为ResGCN-28W的图卷积网路取得最优效果。可见采用残差连接的,动态边的,适当深度的,大宽度的图卷积网络有最好的效果。

小白科研笔记:简析论文DeepGCNs: Can GCNs Go as Deep as CNNs_第3张图片
图3:实验结果(Dynamic指动态边,可以参考EdgeConv论文)

3. 结束语

这篇文章结构和内容都很简单,实验也只是用了一个数据集,但是它的思想还是很不错的。

你可能感兴趣的:(computer,vision论文代码分析)