如何正确生成小词汇量的 Deepspeech 评分器文件?

问题描述

我正在尝试为特定词汇制作 STT 引擎。我的词汇由国家名称和一些动作句子组成。尝试生成 lm.binary 和 vocab.txt 时,我收到此错误消息:

错误:调整计数 3 的 1 克折扣超出范围:-2.5203​​79。这意味着修改后的 Kneser-Ney 平滑认为您的数据有些奇怪。要覆盖此错误,例如基于类的模型,重新运行 --discount_fallback

但是当我使用 --discount_fallback 生成 lm.binary 和 vocab 文件时,记分器不起作用。 我的词汇句子是:

你好 你好 嘿... Windhoek Yaounde Yaren Yerevan Zagreb 早上好

词汇的行数是 740。 每行一个句子。 我该如何解决这个问题?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)