python – 使用spacy西班牙语Tokenizer

我总是使用英语或德语的spacy库.

要加载库,我使用了以下代码:

import spacy
nlp = spacy.load('en')

我想使用西班牙语tokeniser,但我不知道怎么做,因为spacy没有西班牙语模型.
我试过这个

python -m spacy download es

然后:

nlp = spacy.load('es')

但显然没有任何成功.

有人知道如何以正确的方式用西班牙语标记西班牙语句子吗?

解决方法:

对于1.6版本,此代码正常工作:

from spacy.es import Spanish
nlp = Spanish()

但在版本1.7.2中,需要进行一些更改:

from spacy.es import Spanish
nlp = Spanish(path=None)

来源:@honnibal在gitter聊天

相关文章

python方向·数据分析   ·自然语言处理nlp   案例:中...
原文地址http://blog.sina.com.cn/s/blog_574a437f01019poo....
ptb数据集是语言模型学习中应用最广泛的数据集,常用该数据集...
 Newtonsoft.JsonNewtonsoft.Json是.Net平台操作Json的工具...
NLP(NaturalLanguageProcessing)自然语言处理是人工智能的一...
做一个中文文本分类任务,首先要做的是文本的预处理,对文本...