如何使用相同的参数在gensim中更新经过训练的Word2vec模型

问题描述

从gensim更新模型时遇到了一些麻烦。我使用以下命令创建模型。

model = gensim.models.Word2Vec(sentences,size=100,window=20,min_count=10,workers=24,iter=200,callbacks=[epoch_saver]) 为了保存模型,我使用了:

model.save(type+"/"+"word2vec_"+name+"_"+type+"."+version)

据我所记得,训练模型的第一步是创建一个唱词。无论如何,我必须在iter = 147上停止训练。所以,现在我想加载并继续培训。这是我加载模型的方式:

model = gensim.models.Word2Vec.load("encoded_op_op/temporary_model/word2vec.model")

但是如何使用train()方法继续更新?我正在尝试:

model = model.train(sentences,epochs=53,callbacks=[epoch_saver])

但出现错误

对于正确的作业参数更新和进度,您必须指定total_examples或total_words 计算。通常的值是total_examples = model.corpus_count。

无论如何,我在哪里可以定义创建模型时所用的相同参数:size = 100,window = 20,min_count = 10,workers = 24。好。我相信大小已经定义。但是工人呢?

预先感谢

解决方法

通过在原始实例化调用中直接提供sentences,您实际上要求一个调用也要使用这些build_vocab()自动执行train()sentences步骤。

尽管您可以总是向模型发送更多训练示例,但这不是通常预期的操作,因此需要谨慎/专心做正确的事,并且仍然可能会破坏SGD的一些常规假设培训优化。特别是在计划的训练次数中间可能中断了先前的跑步之后。

该模型中包含您的原始参数以及一些来自初始词汇表调查的缓存值(例如workers等)。但是,当您自己致电train()时,您需要明确说明要发送多少数据-因此会得到错误。

使用模型内部缓存的值,只需提供所需的内容,就可以非常简单地避免该错误。例如(但出于以下说明的原因,请勿这样做):

model.train(sentences,epochs=53,callbacks=[epoch_saver],total_examples=model.corpus_count)

(注意:您还不想也希望将返回值(只是一些统计信息)分配给model,否则您将失去对实际模型的引用。 )

这提供了错误所请求的内容并因此防止了异常-但仍然做得并不正确。

这是因为从alpha的开始0.025到其可忽略的min_alpha值,从正常的线性学习率衰减开始,原始训练的速度是147/200。但是,如果您只运行上面的代码,您将0.025重新开始学习,这与原来的培训继续进行会完全不同

相反,要使内部学习率大致回到第147个时期的中期训练水平,可以对train()start_alpha使用可选参数,如下所示:

model.train(model.train(sentences,total_examples=model.corpus_count,start_alpha=(model.min_alpha + (53/200 * (model.alpha - model.min_alpha)))

然后,如果原始培训已经达到最后53个时期,您将密切注意将发生的事情。

但是,作为一般观察,您可能应该只是从头开始重新训练。它更加简单,而且不易出错。

但是,如果实际上这很耗时,您觉得您需要从部分训练中恢复,那么奇怪的是,您使用了如此多的训练时期。如果有足够大的数据(这种数据可能要花几个小时才能运行),则更典型的iter值应该是5(默认)到1020

仅当您的数据很小/很薄时,才使用较大的值。尽管word2vec在这么小的数据上效果不佳,但您可以通过更多的训练周期来获得部分敏感的结果。但是,总的培训持续时间不太可能这么长,您必须执行如此复杂的部分工作恢复。

另外:使用sentences参数提供纯Python序列作为语料库,使用workers=24可能不会获得非常好的吞吐量和CPU核心利用率。该实现在线程之间传递数据的方式上存在一些瓶颈,并且Python全局解释器锁(GIL)的局限性意味着线程之间经常会相互阻碍,以免取得良好的进展。

通常,即使您的计算机具有16、32、64或更多的内核,该路径最多也只有大约8-12个工作线程才能达到最大吞吐量。 (而且,如果您确保sentences尽可能简单(已在内存中已令牌化的列表列表)或从磁盘简单读取以空格分隔的令牌,则将获得最佳的吞吐量。 –但不会重复进行正则表达式预处理/令牌化。)

如果您可以将语料库写到一个文件中,并且每个句子都在一行上,并且所有标记都用一个空格预分隔,则可以改用新的corpus_file选项来指定该文件,并且那么workers到计算机中实际内核数的数量都将各自执行非阻塞工作,从而实现更高的吞吐量/ CPU使用率。