es-ik分词器插件

es添加ik分词器插件

官网:https://github.com/medcl/elasticsearch-analysis-ik
(注意不要下载源代码)
es-ik分词器插件

es-ik分词器插件
安装:

sudo mkdir -p /qj/es/plugins/ik
sudo mv elasticsearch-analysis-ik-7.10.0.zip /qj/es/plugins/ik/
sudo unzip elasticsearch-analysis-ik-7.10.0.zip
sudo rm -rf /qj/es/plugins/ik/elasticsearch-analysis-ik-7.10.0.zip

ik分词器提供了两个分词算法:ik_smart , ik_max_word,其中ik_smart为最少切分,ik_max_word为最细粒度划分。
ik_smart

GET _analyze
{
  "analyzer": "ik_smart",
  "text": "中国*"
}

es-ik分词器插件

ik_max_word:

GET _analyze
{
  "analyzer": "ik_max_word",
  "text": "中国*"
}

es-ik分词器插件
添加自己的词典:
这是所有的字典:
es-ik分词器插件
添加词典再这里修改:
es-ik分词器插件
在IKAnalyzer.cfg.xml配置文件添加kang.dic:
es-ik分词器插件
添加kang.dic字典:

vim kang.dic

es-ik分词器插件
没添加kang.dic的字典前:
es-ik分词器插件
重启es让配置起作用:

docker restart es

添加kang.dic后:
es-ik分词器插件

上一篇:Cassandra集群管理-下线正常节点


下一篇:HCNA Routing&Switching之静态路由