GPU支持TensorFlow和PyTorch

问题描述

好的,所以我现在从事大量的深度学习项目和实习,而我从来不需要做大量的培训。但是最近我一直在考虑做一些转移学习,为此我需要在GPU上运行我的代码。现在,我有一个带有Windows 10和专用NVIDIA GeForce 940M GPU的系统。我一直在做很多在线研究,但我仍然有些困惑。我尚未在系统上安装NVIDIA Cuda Toolkit或cuDNN或tensorflow-gpu。我目前使用tensorflow和pytorch训练我的DL模型。这是我的查询-

  1. 当我在tf或pytorch中定义张量时,默认情况下它是cpu张量。因此,到目前为止,我一直在进行的所有培训都在CPU上进行。因此,如果我确保安装正确版本的Cuda和cuDNN和tensorflow-gpu(专门用于tensorflow),则可以使用tf-gpu和pytorch在我的GPU上运行我的模型,就是这样吗? (我知道pytorch中的torch.cuda.is_available()以确保pytorch可以访问我的GPU和tf中的device_lib模块来检查我的gpu是否对tensorflow可见)(我也知道tf不支持所有Nvidia GPU)

  2. 为什么tf有单独的模块支持GPU? PyTorch似乎没有它,您所需要做的就是将张量从cpu()转换为cuda()在它们之间切换。

  3. 为什么要安装cuDNN?我知道这是为支持在GPU上训练深度神经网络而构建的高级API CUDA。但是,在使用gpu进行训练时,tf-gpu和火炬会在后端使用它们吗?

  4. 在tf == 1.15之后,他们是否将CPU和GPU支持全部合并到一个软件包中?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)