我总是使用英语或德语的spacy库.
要加载库,我使用了以下代码:
import spacy
nlp = spacy.load('en')
我想使用西班牙语tokeniser,但我不知道怎么做,因为spacy没有西班牙语模型.
我试过这个
python -m spacy download es
然后:
nlp = spacy.load('es')
但显然没有任何成功.
有人知道如何以正确的方式用西班牙语标记西班牙语句子吗?
解决方法:
对于1.6版本,此代码正常工作:
from spacy.es import Spanish
nlp = Spanish()
但在版本1.7.2中,需要进行一些更改:
from spacy.es import Spanish
nlp = Spanish(path=None)
来源:@honnibal在gitter聊天