es添加ik分词器插件
官网:https://github.com/medcl/elasticsearch-analysis-ik
(注意不要下载源代码
)
安装:
sudo mkdir -p /qj/es/plugins/ik
sudo mv elasticsearch-analysis-ik-7.10.0.zip /qj/es/plugins/ik/
sudo unzip elasticsearch-analysis-ik-7.10.0.zip
sudo rm -rf /qj/es/plugins/ik/elasticsearch-analysis-ik-7.10.0.zip
ik分词器提供了两个分词算法:ik_smart , ik_max_word,其中ik_smart为最少切分,ik_max_word为最细粒度划分。ik_smart
:
GET _analyze
{
"analyzer": "ik_smart",
"text": "中国*"
}
ik_max_word
:
GET _analyze
{
"analyzer": "ik_max_word",
"text": "中国*"
}
添加自己的词典:
这是所有的字典:
添加词典再这里修改:
在IKAnalyzer.cfg.xml配置文件添加kang.dic:
添加kang.dic字典:
vim kang.dic
没添加kang.dic的字典前:
重启es让配置起作用:
docker restart es
添加kang.dic后: