转自博客
http://blog.csdn.net/qq_17448289/article/details/56676873
查看NVIDIA实时显存指令
在跑深度学习的时候,经常出现显存不足的情况,所以我们希望能够随时查看GPU时使用率。如果你是NVIDIA的GPU,那么在命令行下,只需要一行命令就可以实现。
1. 显示当前GPU使用情况
NVIDIA自带了一个nvidia-smi的命令行工具,会显示显存使用情况:
nvidia-smi
2. 周期性输出GPU使用情况
但是有时我们希望不仅知道那一固定时刻的GPU使用情况,我们希望一直掌握其动向,此时我们就希望周期性地输出,比如每 10s 就更新显示。 这时候就需要用到 watch命令,来周期性地执行nvidia-smi命令了。
了解一下watch的功能:
作用:周期性执行某一命令,并将输出显示。
watch的基本用法是:
watch [options] command
最常用的参数是 -n, 后面指定是每多少秒来执行一次命令。
监视显存:我们设置为每 10s 显示一次显存的情况:
watch -n 10 nvidia-smi
watch -n 1 nvidia-smi
这样,只要开着这个命令行窗口,就可以每10/1 s刷新一次
分屏显示
按下Ctrl+Shift+e
查看显卡信息
lspci | grep -i vga
这样就可以显示机器上的显卡信息:
如果想看详细的信息,比如 GeForce GTX 980,即 01:00.0
lspci -v -s 01:00.0