Transformer:为什么分类层中的 softmax即带有 softmax 的 FFNN不需要缩放输入,其操作与 self-attention 相同?

问题描述

原论文中说,之所以需要对scaled self-attention进行scale,是因为“点积的量级变大了,把softmax函数推到了梯度极小的区域”。

所以如果问题是输入中的一个大值或者某个大值会使softmax的梯度变得稀疏,为什么最后一层Transformer(分类层,即带有softmax的前馈网络)不需要scaling输入?

也就是说,我们知道softmax是机器学习中很常见的一个函数,为什么它在self-attention场景中只接受scaled input?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)