问题描述
我正在使用PyTorch,并且想在一段时间后更改学习率。
但是,大多数文档中提供的代码是:
Reader
不起作用。
实际上PyCharm暗示了这一点:
结果,抛出的错误是:
如何在PyTorch(1.6)中手动更改学习率?
解决方法
Param_groups不是pytorch设计的可行解决方案,因此您应该实现pytorch.optim.lr_scheduler
。在其他stackoverflow答案here上了解有关此内容的更多信息。
import torch.optim.lr_scheduler.StepLR #step learning rate
scheduler = StepLR(optimizer,step_size=5,gamma=0.1)
,
在上面的评论中,@ Alizera Omidi提供了答案。
params_group
中有一个错字,实际上是param_groups