我们可以在Pytorch DataLoader中的工作人员之间共享内存吗?

问题描述

我的数据集取决于3GB张量。该张量可以在cpu或GPU上。我的代码的瓶颈是数据加载预处理。但是我不增加我的RAM就不能增加几个工人。

这对我来说听起来很愚蠢:为什么每个工作人员都能收到3GB张量的副本,而每个工作人员之间却完全相同?

有什么解决方案可以让工作人员访问此张量的单个版本?

谢谢

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)