Google Colab内存不足

问题描述

我是深度学习和TensorFlow的新手。我正在实现paper,即Seq2Seq模型。 这样的模型架构: 编码器:

  1. 嵌入层
  2. 两个双向层堆叠在一起,每层隐藏512个单位

全球关注

两个不同的解码器,具有512个隐藏单元。

时间步长为1400。

批处理大小为64。

我使用Colab GPU和TPU进行训练,但我不知所措。我什至无法完成一个纪元。 数据集大小约为25 Mb,其中包含79000个示例。 这是我的implementation

我的实现有什么问题吗?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)