下载
- 从github下载ik中文分词器,点击地址,需要注意的是,ik分词器和elasticsearch版本必须一致。
安装
- 下载到本地并解压到elasticsearch中的
plugins
目录内即可。
测试
- 测试,进入kibana中的
Dev Tools
中,在Console
中输入:
ps:ik插件的生效需要重启elasticsearch。
GET _analyzer
{
"analyzer": "ik_max_word",
"text": "上海自来水来自海上"
}
有了分词结果,证明一切都好使了。可以愉快的学习了。
问题
我在github上下载的ik tar包是不完全的,导致运行报错,后来我就下了一个zip包,把内容替换就好了。