python – 使用spacy西班牙语Tokenizer

我总是使用英语或德语的spacy库.

要加载库,我使用了以下代码:

import spacy
nlp = spacy.load('en')

我想使用西班牙语tokeniser,但我不知道怎么做,因为spacy没有西班牙语模型.
我试过这个

python -m spacy download es

然后:

nlp = spacy.load('es')

但显然没有任何成功.

有人知道如何以正确的方式用西班牙语标记西班牙语句子吗?

解决方法:

对于1.6版本,此代码正常工作:

from spacy.es import Spanish
nlp = Spanish()

但在版本1.7.2中,需要进行一些更改:

from spacy.es import Spanish
nlp = Spanish(path=None)

来源:@honnibal在gitter聊天

上一篇:python – 将形容词转换为副词


下一篇:适用于Python的轻量级NLP框架