究竟包含 Word2Vec 的词向量或一般的词嵌入,但我们可以保留 Word2Vec

问题描述

可以解释一下吗?我有一个属性,我总是需要了解一切。我在某处读到它是“上下文”或隐藏神经层的内容(其权重),但仍然有可能充分解释 Word2Vec 向量中的确切内容吗?

难道真的只是一些随机权重而已,没有聪明的意图吗?

顺便说一句,我现在正在检查一些基本的神经网络,我注意到在最简单的情况下,将一个输入映射到一个神经元,这意味着一个神经元 = 一个权重,但在进一步的图表中,我注意到所有输入都是“完全连接”的映射到所有神经元,那么似乎一个神经元 = N 个权重,其中 N 是它的输入数量

但我想知道 Word2vec 向量是否真的只是隐藏层(权重),在完全连接的输入的情况下,它可以是 100 个权重,而我说 1 个神经元大于 1 个权重。

>

enter image description here

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)