测试Ik分词器以及增加自己的词汇

测试

启动kibana,打开开发工具

ik_smart:最少切分

GET _analyze
{
  "analyzer": "ik_smart", 
  "text": ["*"]
}

测试Ik分词器以及增加自己的词汇

 

 

 

 

 ik_max_word:最细粒度划分,穷尽词库。

GET _analyze
{
"analyzer": "ik_max_word",
"text": ["*"]
}

测试Ik分词器以及增加自己的词汇    测试Ik分词器以及增加自己的词汇

我们输入一个人名:比如说宋殿鑫想当Java开发工程师,宋殿鑫是人名,但是被分开了。

测试Ik分词器以及增加自己的词汇

 

 

 出现问题:有些词被拆开了!

这种自己需要的词,要加到我们的分词字典中!

Ik分词器增加自己的配置

来到 elasticsearch-7.6.1\plugins\ik\config 目录下,打开IKAnalyzer.cfg.xml

测试Ik分词器以及增加自己的词汇

 

 我们先创建一个dic文件,也就是字典,其实我们打开其他的dic文件也是一样的。

测试Ik分词器以及增加自己的词汇

 

 编写后注入到配置文件中。

测试Ik分词器以及增加自己的词汇

 

 然后重启es和kibana,可以看到我们新加的文件

测试Ik分词器以及增加自己的词汇

 

再分词,可以发现,宋殿鑫成为了单独的字段,没被细分

 测试Ik分词器以及增加自己的词汇

 

测试Ik分词器以及增加自己的词汇

上一篇:网络传输时既有管道流(PipedInputStream 与 PipedOutStream)又有序列化对象、反序列化对象(ObjectOutputStream与 ObjectInputStream),还有在集合中、流中都有的身影的Properties究竟是何方神物?我们该怎么选择呢?


下一篇:TypeScript中的数据类型