tensorflow 迭代周期长,每个epoch时间变慢

理论上,session启动后,每个epoch训练时间应该是差不多,而且不会因为迭代周期变长,epoch时间变慢。原因是session里定义了tf.op导致的,每一次迭代都会在graph里增加新的节点,导致memory leak,程序越来越慢,最后强行退出。解决方法,可以在session里定义graph.finalize()锁定graph。比如:

sess = tf.Session()
for epoch in range(EPOCHS):
  ...
  sess.graph.finalize() #增加这行

相关文章

MNIST数据集可以说是深度学习的入门,但是使用模型预测单张M...
1、新建tensorflow环境(1)打开anacondaprompt,输入命令行...
这篇文章主要介绍“张量tensor是什么”,在日常操作中,相信...
tensorflow中model.fit()用法model.fit()方法用于执行训练过...
https://blog.csdn.net/To_be_little/article/details/12443...
根据身高推测体重const$=require('jquery');const...