Lucene.Net 2.3.1开发介绍 —— 二、分词(三)

原文:Lucene.Net 2.3.1开发介绍 —— 二、分词(三)

1.3 分词器结构

1.3.1 分词器整体结构

从1.2节的分析,终于做到了管中窥豹,现在在Lucene.Net项目中添加一个类关系图,把TokenStream和他的儿孙们统统拉上去,就能比较好的把握他们之间的关系。

Lucene.Net 2.3.1开发介绍 —— 二、分词(三)

图 1.3.1.1

如图1.3.1.1 就是他们的类关系图。看出如果要做一个分词器,最短的路,就是继承第二代,成为第三代。然后再写一个Analyzer的子类,专门用来做新分词器的适配器就好了。转换器。  呵呵,写Analyzer的过程,就是实践适配器模式的过程。(这里是直接使用了Tokenizer的实例,不能算是适配器模式,更正,感谢老赵指正。 2008年9月1日 2:23:23)

1.3.2 分词器调用流程

光有整体结构还不行,还有了解方法和方法是如何被调用的。还是以最简单的KeywordTokenizer来作为分析对象。

入口毫无疑问,就是KeywordTokenizer的构造函数。然后就是调用Next方法,这是再简单不过的事情。而这里就是要让每次调用Next方法都可以出来一个分词。这个过程可以这么来描述:

(1)、分词,把一句话,一段话或者一篇文章按一个规则划分为N份;

(2)、把这N份片断存储到一个数组中,要同时记录这个片断的内容,还要记录它相对开始位置的偏移;

Lucene.Net 2.3.1开发介绍 —— 二、分词(三)
图 1.3.2.1
 

(3)、每次调用Next方法,就从上面的数组中取出一个片段;

(4)、片段取完就返回null值;

(5)、发现null值,分词过程结束。

明白以上流程,就可以开始自己写分词器了,嘿嘿。

2.1 自己动手写分词

自己写分词,光知道上面的还不够。自己写分词,首先,你要有个目标,目标是干嘛的呢?就是你这个分词到底是给什么用的,要做到什么程度。比方说,分词是给英文的还是中文的,还是中英文混合,还是还包含了日文。英文的写作规则,单词一空格划分,比较好区分,但是中文的怎么办?归结起来,现在将面临三个问题:

(1)、分词器要分什么东西,怎么才能达到目的,其实就是字符串怎么截取的问题;

(2)、分词器的准确度如何,分词速度如何,怎么做取舍,这是个算法的问题;

(3)、剩下的问题才是如何用Lucene.Net可以理解的方式写出来,这一步,上面讲了那么多小节,却是三个问题的最简单的一个。

2.1.1 最简单的分词方式

这里的最简单指的是用最少代码的方式。好,现在来个最简单的,写成代码2.1.1.1的方式总是最简单了吧?

代码 2.1.1.1
 
using System;using Lucene.Net.Analysis;namespace Test.Analysis{    public class
 EsayTokenizer : Tokenizer    {    }}

太好了,终于写出来了,下面包装一下,写个Analyzer类。

代码 2.1.1.2
 
using Lucene.Net.Analysis;namespace Test.Analysis{    public class EsayAnalyzer : Analyzer    {        public override TokenStream TokenStream(string fieldName, System.IO.TextReader reader)        {            return new
 EsayTokenizer();        }    }}

立刻测试一下(测试方法见1.1.1节,具体测试则加入1.1.2节的AllAnalysisTest中,测试代码见 2.1.1.3)。

测试结果:

NUnit的gui崩溃了!!!

这个代码实在太强大了,让测试工具崩溃了!这个问题在1.2.1节讲过,Next方法和Next(Token)方法,在父类中是相互调用的,那会产生什么后果?这就像是个死循环,这个递归永远没办法结束,所以到一定次数以后,会堆栈溢出。所以我们写的分词器必须自己实现一个Next方法,哪怕什么都不做。而另外一个问题就是EsayAnalyzer类总是能拿到一个流,但是现在没办法传到分词器里来,所以,分词器必须有个能传入流的构造函数。对代码修正,如代码2.1.1.3。

代码 2.1.1.3
 
Code 1using System; 2using System.Collections.Generic; 3using System.Text; 4using Lucene.Net.Analysis; 5using System.IO; 6 7namespace Test.Analysis 8{ 9    public class EsayTokenizer : Tokenizer10    {11        private TextReader reader;1213        public EsayTokenizer(TextReader reader)14        {15            this.reader = reader;16        }1718        public override Token Next()19        {20            //千万不能调用父类的方法,要不又是死递归21            //return base.Next();22            return null;23        }24    }25}

同时把EsayAnalyzer 类对EsayTokenizer类的调用改成return new EsayTokenizer(reader)。OK,测试结果:

Test.Analysis.EsayAnalyzer结果:
--------------------------------
--------------------------------

什么也没有,这个在预料之中。和KeywordTokenizer分词器不同,KeywordTokenizer分词器是什么都有,而且没做任何处理。现在呢是什么都没了。还有一种写法是和这种不相上下的。如代码2.1.1.4。

 
代码 2.1.14
 
Code 1using Lucene.Net.Analysis; 2 3namespace Test.Analysis 4{ 5    public class EsayTooAnalyzer : Analyzer 6    { 7        public override TokenStream TokenStream(string fieldName, System.IO.TextReader reader) 8        { 9            return new EsayTooTokenizer(reader);10        }11    }12}1314using System.IO;15using Lucene.Net.Analysis;1617namespace Test.Analysis18{19    public class EsayTooTokenizer : CharTokenizer20    {21        public EsayTooTokenizer(TextReader reader)22            : base(reader)23        {24        }2526        protected override bool IsTokenChar(char c)27        {28            return c == ',' ? true : false;29        }30    }31}32

测试结果:

Test.Analysis.EsayTooAnalyzer结果:
--------------------------------
,
--------------------------------

有个逗号了!!!哈哈,总算进步了。而把IsTokenChar方法改一下,改成:

protected override bool IsTokenChar(char c)

{
      return c == ',' ? false : true;
}

Test.Analysis.EsayTooAnalyzer结果:
--------------------------------
我是中国人,I'can speak chinese
hello world,沪江小Q!
--------------------------------

这下除了逗号,什么都有了。

改成:

protected override bool IsTokenChar(char c)
 {
        return c == ',' ? false : false;
 }

就什么都没了,要是两个都是true,会得什么结果呢?

上一篇:使用jekyll主题


下一篇:Vue.jsbrowserify项目模板