问题描述
我正在向GRU传递一批句子。这些句子长度不一,已被填充(padding_idx = 0)以形成批处理。句子的长度差异很大,从32个单词到105个单词。我在创建嵌入层时指定了padding_idx。如果我不使用nn.pack_padded_sequence,是否仍然需要任何类型的屏蔽信息,或者在内部进行处理?
此外,在从GRU获取hidden_states之后,我想形成句子表示形式。为此,我在为句子获得的hidden_states上应用了软注意力机制。基本上,我会为每个隐藏状态获取一个分数,并采用加权平均值。这还将为与padding_idx相对应的隐藏状态分配权重。是正确的还是我需要在这里使用遮罩?就像将与padding_idx对应的隐藏状态的权重设置为一个很小的值一样。
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)