1.下载对应版本的ES ik分词 https://github.com/medcl/elasticsearch-analysis-ik/releases
2.解压elasticsearch-analysis-ik-master.zip
unzip elasticsearch-analysis-ik-master.zip
3.进入elasticsearch-analysis-ik-master,编译源码
cd elasticsearch-analysis-ik-master
mvn clean install -Dmaven.test.skip=true
4.在$ES_HOME/plugins文件夹下创建analysis-ik
mkdir analysis-ik
5.将编译后生成的elasticsearch-analysis-ik-1.2.9.zip移到$ES_HOME/plugins/analysis-ik下,并解压。
cp /apply/ik/elasticsearch-analysis-ik-1.10.1/target/releases/elasticsearch-analysis-ik-1.10.1.zip /apply/es/elasticsearch-2.4.1/plugins/analysis-ik/
6.在ES的配置文件elasticsearch.yml中增加ik的配置,在最后增加:
index.analysis.analyzer.ik.type: "ik"
测试分词
http://172.15.12.173:9200/_analyze?analyzer=ik&text=我是中国人
结果如下
扩展词库,在config\custom下在mydict.dic中增加需要的词组,然后重启Elasticsearch,需要注意的是文件编码是UTF-8 无BOM格式编码。
vim /apply/es/elasticsearch-2.4.1/plugins/analysis-ik/config/custom/mydict.dic
如新增 是中国人
可以看出 “是中国人” 已经是一个词