使用 GPU 与 Keras 进行强化学习

问题描述

我正在使用 this 代码(请原谅它的混乱)在我的 cpu 上运行。我有一个我自己创建的自定义 RL 环境,我正在使用 DQN 代理。

但是当我在 GPU 上运行这段代码时,它并没有使用太多,实际上它比我的 cpu 慢。

这是 nvidia-smi输出。如您所见,我的进程在 GPU 上运行,但速度比我预期的要慢得多。

+-----------------------------------------------------------------------------+
| NVIDIA-SMI 440.82       Driver Version: 440.82       CUDA Version: 10.2     |
|-------------------------------+----------------------+----------------------+
| GPU  Name        Persistence-M| Bus-Id        disp.A | Volatile Uncorr. ECC |
| Fan  Temp  Perf  Pwr:Usage/Cap|         Memory-Usage | GPU-Util  Compute M. |
|===============================+======================+======================|
|   0  TITAN Xp            Off  | 00000000:00:05.0 Off |                  N/A |
| 23%   37C    P2    60W / 250W |  11619MiB / 12196MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
|   1  TITAN Xp            Off  | 00000000:00:06.0 Off |                  N/A |
| 23%   29C    P8     9W / 250W |    157MiB / 12196MiB |      0%      Default |
+-------------------------------+----------------------+----------------------+
                                                                               
+-----------------------------------------------------------------------------+
| Processes:                                                       GPU Memory |
|  GPU       PID   Type   Process name                             Usage      |
|=============================================================================|
|    0     25540      C   python3                                    11609MiB |
|    1     25540      C   python3                                      147MiB |
+-----------------------------------------------------------------------------+

谁能指出我可以做些什么来更改我的 GPU 功能代码

PS:请注意,我有两个 GPU,并且我的进程在这两个 GPU 上运行。即使我使用两个 GPU 中的任何一个,问题是我的 GPU 没有被使用,而且速度比 GPU 慢,所以两个 GPU 不是问题

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)