AAAI-2017
在 CIFAR-10 上的小实验可以参考博客
1)传统结构 + residual connections = ResNet 获得了 ImageNet 2015的冠军,Are there any benefits to combining Inception architectures with residual connections?
2)改进CNN的结构,提升目标识别的性能,也有利于其它任务(Objection detection、Segmentation、human pose estimation)的性能提升。所以作者在 inception 基础上,着手改进CNN,进一步提升 object recognition 的性能
We achieve 3.08% top-5 error on the test set of the ImageNet classification (CLS) challenge.
傲世群雄
三种结构
v4 的 Inception blocks 结构和 Inception-ResNet-v1、v2 的不同如下
Inception-ResNet-v1、v2 的不同见本 blog 4.2节
Inception-v3 的基础上 Inception-v4(more deeper and wider)
左边是 inception-v4 的 pipeline
右边是 Inception-v4 和 inception-resnet-v2 的 stem
Inception-A、Inception-B、Inception-C 如下:
1)Residual connection + Inception-v3 + 调整 = Inception-ResNet
2)Inception-ResNet-v1 和 Inception-v3 计算量大致相当,Inception-ResNet-v2 和 Inception-v4 计算量大致相当
3)BN 只加在了传统的结构中,没有加入到 Residual connection 结构中(TensorFlow memory limit,理论上都用效果会更好)
4)Inception-ResNet-v1、Inception-ResNet-v2 的区别在于
左边是 Inception-resnet-v1(5,10,5 modules) 和 v2(往往是10,20,10 modules) 的 pipeline
右边是 Inception-resnet-v1 的 stem
作者观察到 if filters number 超过 1000,网络迭代后会慢慢死掉(average pooling 之前的 layer的输出为0,也就是最后一个Inception-C的输出)
Even where the scaling was not strictly necessary, it never seemed to harmed the final accuracy, but it helped to stabilize the training.
ILSVRC 2012
Inception-v3 PK Inception-resnet-v1
后者更快,但前者最终会更好
Inception-v4 vs Inception-resnet-v2
后者又快又好
组合拳(test表现更好,说明没有 overfitting)
residual connection 能加快训练,不依赖这种结构 Inception (v4)也能达到差不多的结果 。我觉得这是作者超级牛的地方。表现随着版本的提升,作者偏向于认为主要是 model size 的关系。Inception-resnet-v2 和 Inception-v4 比较猛。
Q1:Scaling of the Residuals 的代码实现是什么样子的
A1:参考 【Keras-Inception v4】CIFAR-10