为什么神经网络中数据集的总大小会影响内存使用率

问题描述

最初,我尝试使用268张测试图像+ 65张256x256尺寸的验证图像在图像分类模型中进行转移学习。

(我使用的代码来自https://github.com/conan7882/GoogLeNet-Inception

但是即使使用Tesla K80(16 GB内存),我仍然不能训练超过5个批处理大小的东西。

现在,我将数据集的大小增加到480个测试图像+ 120个验证图像,然后再次弹出内存不足错误。我必须将批次大小减小为2才能继续训练。

为什么数据集大小对内存使用量有影响?不仅批处理大小可以决定GPU正在处理多少数据?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)