我在Alex的paper中发现了关于本地响应规范化的这个等式:
正如我们在上面看到的那样,在我们计算总和之后,将功率提高,将其与alpha相乘,然后在添加k之后添加.
但是,我在TensorFlow文档中看到它显示为
sqr_sum[a, b, c, d] =
sum(input[a, b, c, d - depth_radius : d + depth_radius + 1] ** 2)
output = input / (bias + alpha * sqr_sum ** beta)
测试版仅针对总和筹集.
为什么这里有差异?
另外,当我查看TensorFlow代码本身时,我看到了这个:
output[b, r, c, d] /= (
np.power(bias + alpha * np.sum(patch * patch), beta))
哪个看起来正确?
我有点困惑.有人可以纠正我吗?
解决方法:
它是在2月26日由此提交修复的:
https://github.com/tensorflow/tensorflow/commit/ab48dbd4ac2095548a5bc8505e08e751d409727f#diff-632987400e5affbcdba4533444460b0e