问题描述
我正在pytorch中循环运行一个时间融合变压器,在该循环中,我需要每x个时间间隔重新训练模型。我正在使用模型检查点来保存每列火车中的最佳模型。
chkpt_callback = ModelCheckpoint('C:\\Users\\Administrator\\Documents\\chk.ckpt')
我在这里遇到几个问题。模型检查点不会覆盖上一个模型检查点,并且会继续创建新的检查点文件。此外,我必须手动删除的每个循环都添加了新的pytorch lightning模型版本。
此外,我使用EarlyStopping功能训练过的先前型号正在占用存储空间,而我找不到它们。
是否有人使用Trainer成功构建了pytorch模型而又没有留下存储空间?
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)