如何在 lr_scheduler LambdaLR 中设置最小学习率?

问题描述

我使用 LambdaLR 作为学习率函数

import torch
import torch.nn as nn
import matplotlib.pyplot as plt

model = torch.nn.Linear(2,1)
optimizer = torch.optim.SGD(model.parameters(),lr=0.01)
lambda1 = lambda epoch: 0.99 ** epoch
scheduler = torch.optim.lr_scheduler.LambdaLR(optimizer,lr_lambda=lambda1,last_epoch = -1)

lrs = []


for i in range(2001):
    optimizer.step()
    lrs.append(optimizer.param_groups[0]["lr"])
    scheduler.step()

plt.plot(lrs)  

enter image description here

我正在尝试设置一个最小学习率,这样它就不会变为 0。我该怎么做?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)