如何在PyTorch1.6中更改学习率

问题描述

我正在使用PyTorch,并且想在一段时间后更改学习率。

但是,大多数文档中提供的代码是:

Reader

不起作用。

实际上PyCharm暗示了这一点:

类“亚当”的未解析属性引用“ params_group”

结果,抛出的错误是:

AttributeError:“ Adam”对象没有属性“ params_group”

如何在PyTorch(1.6)中手动更改学习率?

解决方法

Param_groups不是pytorch设计的可行解决方案,因此您应该实现pytorch.optim.lr_scheduler。在其他stackoverflow答案here上了解有关此内容的更多信息。

import torch.optim.lr_scheduler.StepLR #step learning rate
scheduler = StepLR(optimizer,step_size=5,gamma=0.1)
,

在上面的评论中,@ Alizera Omidi提供了答案。

params_group中有一个错字,实际上是param_groups