使用 python、tensorflow 和 GPU 的非连续子阵列的效率

问题描述

我自己研究了一些关于 CUDA C 和编码内核以在 GPU 上运行的知识。从我学到的几件事中,我记得数据的内存布局对于最大程度地利用缓存的不同层是多么重要。从加载的 256 位数据中使用的数组中的单个未对齐会导致每个线程进行加载调用,而不是对所有线程进行一次加载调用,从而导致加载下一条指令所需的所有数据的时间很长。我错了吗?

我正在用 Tensorflow 和 Keras 制作一个简单的神经网络。我用 python 精心制作的大块图像喂养这个 Ai。现在的块不是连续的,比如 2x2 chunk=[[0,1],[4,5]] from an image 4x4 [0,1,...,14,15]。这个数组,从 python 到 tensorflow,再到 Nvidia 驱动程序和实际的 GPU VRAM,它会被复制、详细说明或以某种方式连续,还是数组的内存布局将完全相同,不连续?

我知道有不同的选项可以使子数组块连续,但我想知道这是否是我真正应该担心和注意的事情,以及性能会降低多少。有人测量过吗?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...