为什么ResNet模型具有连续的BatchNormalization层?

问题描述

我正在研究resnet架构,发现resnet模型在一定间隔后往往具有成对的连续Batchnorm层。我看不到这样做的任何特殊原因,因为:-

  1. BN层会规范化层激活,然后使用参数 beta gamma 缩放它们。
  2. 第一BN层执行此操作;它将传入的激活归一化,然后将其缩放为均值( beta )和标准差(gamma)。然后,第二个BN再次规范化第一个BN的输出(因此,还原第一个BN层所做的任何缩放),并再次将其移动到不同的均值并使用其新值 beta 伽玛

在随附的图片中,仅显示了一对这样的BN层( conv2_block1_0_bn conv2_block1_3_bn ),但是在网络深处有多对。{{3 }}

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)