问题描述
我能够使用 R 中的 topicmodels 包计算拟合 LDA 模型的主题比例,使用伽马矩阵,来自 VEM 和固定 VEM 采样方法。但是,当涉及到 Gibbs 采样时,当我做完全相同的事情来计算主题比例时,即使用 tidytext 和 slice_max 函数来处理 gamma 矩阵时,它产生的数据结构比 Document Term Matrix 的文档多得多用作输入。具体来说,有 27599 个文档(实际上是预处理的推文),它返回一个 41000 个或多或少的列表,其中包含每个文档最常见的主题。当我对其他 2 个矩阵进行处理时,它会根据所提供数据的维度返回一个包含 27599 个项目的列表。伽马矩阵的维数都相等(VEM、固定 VEM、Gibbs)。我在这里错过了什么?
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)