在 pytorch 中使用 dropout 时,丢弃的节点会随机改变吗?

问题描述

如果我使用 torch.manual_seed(1111) 设置随机种子,在每个 epoch 中使用 torch.nn.Dropout 时,丢弃(消除)的节点是否始终相同? 假设我在一层中有 10 个节点,并且我在该层上使用了 0.2 的 Dropout,我知道在模型训练期间,其中大约 2 个节点将被随机消除。现在,如果我手动设置随机种子,是否意味着在每个时期都会消除相同的 2 个节点?换句话说,torch.manual_seed 是否影响 torch.nn.Dropout

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)