为什么 TF2 对象检测 API 不使用我的 GPU 进行训练 - 或者是这样?

问题描述

我在装有 Tesla P100 卡的机器上使用 TF2 research object detection API。当我启动 model_main_tf2.py 脚本时,我可以通过 nvidia-smi 看到 Python 训练过程使用了所有 16 GB 的 GPU 内存 - 这很好。我还可以看到 GPU 的温度上升,所以它肯定在做很多计算。同样基于训练脚本的输出 TF2 似乎正确地找到了我的 GPU。

但是,当查看 nvidia-smi输出时,“Processes”列表(输出的最后一行)中的 GPU 利用率始终保持在 0,就好像 GPU 根本不工作一样。

那么 TF 训练是使用我的 GPU 而 nvidia-smi输出不正确,还是正确但 TF 训练使用我的 GPU?如果是后者,那么为什么 GPU 会升温并且所有 GPU 内存都被 Python 训练过程使用?那么如何强制 TF 对象检测训练使用我的 GPU?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)