问题描述
我正在尝试画出具有一般注意机制的多层(2层)LSTM编码器/解码器的体系结构。 我在https://github.com/harvardnlp/seq2seq-talk/blob/master/slidescmu.pdf上发现了这张图片,该图片描述了我正在搜索的同一网络: Multilayer LSTM encoder/decoder with a general(Luong) attention mechanisme
问题是我不确定该图像是否100%正确。据我了解,在阅读某些论文时,上下文向量必须分布在最后一层的所有LSTM单元上(因为对齐向量a与一个隐藏的单元目标到另一个目标是不同的),并且之间没有直接链接。编码器和解码器,所以我的建议是: Multilayer LSTM encoder/decoder with a general(Luong) attention mechanisme
有人可以帮我吗?
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)