如何在pytorch中不占用存储空间?

问题描述

我正在pytorch中循环运行一个时间融合变压器,在该循环中,我需要每x个时间间隔重新训练模型。我正在使用模型检查点来保存每列火车中的最佳模型。

chkpt_callback = ModelCheckpoint('C:\\Users\\Administrator\\Documents\\chk.ckpt')

在这里遇到几个问题。模型检查点不会覆盖上一个模型检查点,并且会继续创建新的检查点文件。此外,我必须手动删除的每个循环都添加了新的pytorch lightning模型版本。

此外,我使用EarlyStopping功能训练过的先前型号正在占用存储空间,而我找不到它们。

是否有人使用Trainer成功构建了pytorch模型而又没有留下存储空间?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)