从大型语料库生成 n-gram

问题描述

我正在使用 wikipidia 语料库 (17G) 和 python 语言来获取 n-gram 模型。我使用过 sklearn.feature_extraction.text.CountVectorizer 但它没有任何进度条或详细选项。有推荐的方法吗?

解决方法

好的。解决方法很简单。编辑源代码,因为代码很容易理解。将 tqdm 添加到 for 循环中。

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...