【lucene】lucene 分词 以及自定义分词器2024-02-09 08:49:10 1.概述 分词器基本分为四类,SimpleAnalyzer,StopAnalyzer,WhitespaceAnalyzer,StandardAnalyzer. 2.Token 这里主要涉及 Tokenizer,TokenFilter Tokenizer: 将一组数据划分为不同的词汇单元 TokenFilter: 数据过滤 类结构图如下 上一篇:lucene学习博文记录下一篇:打通es及lucene应用,lucene应用es Query,queryString Query获取及标准化