对本地Solr服务器添加IK中文分词器实现全文检索功能

在上一篇随笔中我们提到schema.xml中<field/>元素标签的配置,该标签中有四个属性,分别是name、type、indexed与stored,这篇随笔将讲述通过设置type属性的值实现中文分词的检索功能

首先下载IK中文分词项目,下载地址https://code.google.com/archive/p/ik-analyzer/downloads?page=1

  对本地Solr服务器添加IK中文分词器实现全文检索功能

其中除了含有jar包之外,还有三个相关的配置文件

  对本地Solr服务器添加IK中文分词器实现全文检索功能

  第一步,将IKAnalyzer2012FF_u1.jar添加到项目的WEB-INF\lib目录下

  对本地Solr服务器添加IK中文分词器实现全文检索功能

  第二步,将IKAnalyzer.cfg.xml与stopword.dic添加到项目的classes目录下

  对本地Solr服务器添加IK中文分词器实现全文检索功能

其中的ext.dic文件可手动进行扩展字典配置,在IKAnalyzer.cfg.xml配置文件中,我们可以看到对应的配置

<?xml version="1.0" encoding="UTF-8"?>
<!DOCTYPE properties SYSTEM "http://java.sun.com/dtd/properties.dtd">
<properties>
<comment>IK Analyzer 扩展配置</comment>
<!--用户可以在这里配置自己的扩展字典 -->
<entry key="ext_dict">ext.dic;</entry> <!--用户可以在这里配置自己的扩展停止词字典-->
<entry key="ext_stopwords">stopword.dic;</entry> </properties>

第三步,也就是最重要的一步,需要在schema.xml文件中配置分词类型

  

<fieldType name="text_ik" class="solr.TextField">
<analyzer type="index" isMaxWordLength="false" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
<analyzer type="query" isMaxWordLength="true" class="org.wltea.analyzer.lucene.IKAnalyzer"/>
</fieldType>
 配置完成后,启动本地服务,在Analysis菜单页中可以实现分词测试
对本地Solr服务器添加IK中文分词器实现全文检索功能
 
 这样我们在自定义field时,对需要分词的字段,则将其type属性值设为fieldType的name值即可实现分词检索 

再这里再记录下,在schema.xml中两个会用到的另外两个标签,uniqueKey与solrQueryParser
  • uniqueKey用来设置主键名称,默认为id
  • 对本地Solr服务器添加IK中文分词器实现全文检索功能
  • solrQueryParser用来设置分词时对字段的查询条件and与or,默认是or且被注释掉,当为and时,需要这个字段中包含输入的关键字分词后,所有的数据才能匹配成功
  • 对本地Solr服务器添加IK中文分词器实现全文检索功能
 
上一篇:jsoup 使用总结1--添加header


下一篇:JS导出excel设置下载的标题/与angular结合冲突