ResNet 学习笔记

MSRA 的 Kaiming He et. al. 在 CVPR15 发表了 ResNet [1],即残差网络,在网络的输入层加入了残差函数,使得更深层神经网络优化更容易。用 152 层 ResNet (比 VGG 深 8 倍)学习 ImageNet 数据集,达到 3.57% 的错误率在 ILSVRC 2015 中名列第一。

在 Deep CNN 中,通常可以增加网络层数,来加强学习能力。

随着网络加深,通常会遇到两个问题:

  1. 梯度消失 / 梯度爆炸,通常可以用 Batch Norm / 梯度截断方法解决
  2. 退化问题:train accuracy 趋于饱和,这不是过拟合引起的,因为增加层数,train error 会随之增加,如 Figure 1 所示。它意味着不是所有的神经网络都容易优化。

对退化问题,有一个解决方法:构建更深的模型时,added layer 是 identity mapping,其他 layers 是从学习好的浅层模型复制过来。这种解决方法表明,更深的模型,相对于浅层的模型,不应该产生更高的训练误差。实验显示,目前 solver 无法很好地求解。

fig1

在这篇论文中,提出了 deep residual learning framework 来解决这个退化问题。让每个 layer 拟合 residual mapping,而不是拟合 underlying mapping,如 Figure 2 所示。

fig1

如果 add 操作输入和输出的大小不同,那就可以使用零填充或投射(通过 1×1 卷积)来得到匹配的大小。

记 original mapping 为 F(x):=H(x)x\mathcal F(\mathbf x) := \mathcal H(\mathbf x) - \mathbf x ,记 residual mapping 为 H(x)\mathcal H(\mathbf x)。我们假设 residual mapping 更容易优化。极限情况下,如果 identity mapping 是最优的,那么把 residual push to zero 比拟合 identity mapping (stack of nonlinear layers) 更容易。

ResNet 作者将这些问题归结成了一个单一的假设:直接映射是难以学习的。而且他们提出了一种修正方法:不再学习从 xxH(x)H(x) 的基本映射关系,而是学习这两者之间的差异,也就是「残差(residual)」。然后,为了计算 H(x)H(x),我们只需要将这个残差加到输入上即可。

其中为 identity x\mathbf x 是 shortcut connection,它不增加模型的计算复杂度和参数,同时也容易用现有框架(Keras / Caffe)实现。

论文的实验表明:

  1. Deep ResNet 容易优化,而 CNN 随着深度增加,train error 增加
  2. ResNet 比 CNN 更容易通过增加深度(500~1k 层)来提高准确率,参数更少,训练时间更快。

网络结构如 Figure 3 所示:

fig1

keras.applications.resnet50 中 ResNet 结构定义如下。其中 conv_blockidentity_block 的区别是 identity x\mathbf x 增加了卷积计算。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
x = Conv2D(64, (7, 7), strides=(2, 2), padding='same', name='conv1')(img_input)
x = BatchNormalization(axis=3, name='bn_conv1')(x)
x = Activation('relu')(x)
x = MaxPooling2D((3, 3), strides=(2, 2))(x)

x = conv_block(x, 3, [64, 64, 256], stage=2, block='a', strides=(1, 1))
x = identity_block(x, 3, [64, 64, 256], stage=2, block='b')
x = identity_block(x, 3, [64, 64, 256], stage=2, block='c')

x = conv_block(x, 3, [128, 128, 512], stage=3, block='a')
x = identity_block(x, 3, [128, 128, 512], stage=3, block='b')
x = identity_block(x, 3, [128, 128, 512], stage=3, block='c')
x = identity_block(x, 3, [128, 128, 512], stage=3, block='d')

x = conv_block(x, 3, [256, 256, 1024], stage=4, block='a', strides=(2, 2))
x = identity_block(x, 3, [256, 256, 1024], stage=4, block='b')
x = identity_block(x, 3, [256, 256, 1024], stage=4, block='c')
x = identity_block(x, 3, [256, 256, 1024], stage=4, block='d')
x = identity_block(x, 3, [256, 256, 1024], stage=4, block='e')
x = identity_block(x, 3, [256, 256, 1024], stage=4, block='f')

x = conv_block(x, 3, [512, 512, 2048], stage=5, block='a', strides=(2, 2))
x = identity_block(x, 3, [512, 512, 2048], stage=5, block='b')
x = identity_block(x, 3, [512, 512, 2048], stage=5, block='c')

# x = AveragePooling2D((7, 7), name='avg_pool')(x)
x = AveragePooling2D((1, 1), name='avg_pool')(x)

x = Flatten()(x)
x = Dense(n_labels, activation='softmax', name='fc')(x)

1x1 卷积

下图是一个更深的残差函数,称为 Bottleneck,使用了 1x1 卷积 对输入输出进行降维,加速计算,减少网络参数:

img

其中 1x1 卷积的作用,是线性组合不同channel的像素点,保留平面结构,增加或减少 depth,完成升维或者降维。

经过激励层,1x1 卷积在前一层学习表示上添加了非线性激励,提升网络表达能力。


  1. He, Kaiming, et al. “Deep residual learning for image recognition.” Proceedings of the IEEE conference on computer vision and pattern recognition. 2016. PDF ↩︎

本文有帮助?