Local Response Normalization和batch_normalization的区别

下面这篇文章对Local Response Normalization讲得比较清楚了。

https://blog.csdn.net/yangdashi888/article/details/77918311

文章中提出了:


Local Response Normalization和batch_normalization的区别_第1张图片

上面公式中的a表示卷积层(包括卷积操作和池化操作)后的输出结果,所以一般Local Response Normalization都是用在卷积(加上激活函数)+池化操作+Local Response Normalization(无激活函数)。而batch_normalization都是卷积(无激活函数)+BatchNormLayer(带激活函数)+Maxpool2d(无激活函数)。下面附上代码:

1)batch_normalization

Local Response Normalization和batch_normalization的区别_第2张图片

2)Local Response Normalization

Local Response Normalization和batch_normalization的区别_第3张图片

你可能感兴趣的:(Local Response Normalization和batch_normalization的区别)