零丢包率的丢包层

问题描述

我无法理解 PyTorch 中 dropout 层的某个方面。

Pytorch Documentation 中所述,该方法的签名是 torch.nn.Dropout(p=0.5,inplace=False),其中 p 是辍学率。

这个层在选择p=0时有什么作用?它会以任何方式改变它的输入吗?

解决方法

Dropoutp=0 等价于恒等运算。

事实上,这是在 eval 模式下设置时 Dropout 模块的确切行为:

在评估过程中,模块只计算一个恒等函数。