关于fisher判别的一点理解

最近一个朋友问这方面的一些问题,其实之前也就很粗略的看了下fisher,真正帮别人解答问题的时候才知道原来自己也有很多东西不懂。下面小结下自己对fisher判别的理解:

其实fisher和PCA差不多,熟悉PCA的人都知道,PCA其实就是在寻找一个子空间。这个空间怎么来的呢,先求协方差矩阵,然后求这个协方差矩阵的特征空间(特征向量对应的空间),选取最大的特征值对应的特征向量组成特征子空间(比如说k个,相当于这个子空间有k维,每一维代表一个特征,这k个特征基本上可以涵盖90%以上的信息)。那么我们把样本投影在这个子空间,原来那么多维的信息就可以用这k维的信息代替了,也就是说降维了。至于PCA为啥要用求协方差矩阵然后求特征子空间的方法,这个数学上有证明,记得在某篇文章上看过,有兴趣的可以找找,看看证明。

那么fisher空间又是怎么一回事呢,其实fisher判别和PCA是在做类似的一件事,都是在找子空间。不同的是,PCA是找一个低维的子空间,样本投影在这个空间基本不丢失信息。而fisher是寻找这样的一个空间,样本投影在这个空间上,类内距离最小,类间距离最大。那么怎么求这个空间呢,类似于PCA,求最大特征值对应的特征向量组成的空间。  当我们取最大几个特征值对应的特征向量组成特征空间时(这里指出,最佳投影轴的个数d<=c-1,这里c是类别数),最佳投影矩阵如下:

关于fisher判别的一点理解

其实在文章Eigenfaces vs Fisherfaces :recognition using class specific linear projection中给出了PCA和LDA比较直观的解释,文中对一个二维的数据进行分析,PCA和LDA都是把二维数据降到一个一维空间,那么其实PCA使得数据投影在这个一维空间总的离散度最大,我的理解是这样的,如果数据在某一维上比较离散,说明这维特征对数据的影响比较大,也就是说这维特征是主成分。而LDA呢,数据投影在这个空间,类内离散度最小,类间离散度最大,数据变得线性可分,如文中所说:

关于fisher判别的一点理解

假设我们给定C类样本,我们先求sw(类内离散度)和sb(类间离散度),如下所示:

关于fisher判别的一点理解

那么样本投影在新的投影空间中类间离散度为:

关于fisher判别的一点理解

样本投影在新的投影空间中类内离散度为:

关于fisher判别的一点理解

那么只要我们最大化关于fisher判别的一点理解就可以使得样本投影在这个空间上类内离散度最小,类间离散度最大,其中,w就是我们要找的投影方向。但是问题就来了,如果sw是一个奇异矩阵,那么这个式子是求不出来的。所以就有高人想到用这个式子代替:

关于fisher判别的一点理解

这里的B是一个权衡因子,权衡类间距离和类内距离谁的比重大,试验中可以根据需要调节。也就是说,只要我们可以根据梯度下降法迭代w,使得关于fisher判别的一点理解最大化,这个w就是我们所要求的最好的投影方向。在fisher中最大特征值对应的特征向量就是最佳投影方向,如果我们取最大k个特征值对应的特征向量作为投影方向,那么最终样本就投影到了这样的一个k维子空间,在这个子空间里面类内最小,类间最大。

关于fisher判别的一点理解

另外还有一种方法来解决sw的奇异性引起的问题,比如如果我们试验中处理的数据时人脸图片,由于人脸图片之间相关性很大,所以sw很容易就是一个奇异矩阵,但是如果我们先用PCA对样本进行降维,去掉相关性,那么这样我们再用LDA就不会遇到sw奇异性的为题了,实际中这种方法也是很常用的,在用LDA的时候往往先使用PCA降维。

好了,下面来给出fisher的一个简单的matlab代码:

main.m

   1: clear; clc;

   2: %定义两类样本的空间范围 

   3: x1min=2;x1max=6; 

   4: y1min=-4,y1max=0; 

   5: x2min=6,x2max=10; 

   6: y2min=2,y2max=6; 

   7: %产生两类2D空间的样本 

   8: c1=createSwatch(x1min,x1max,y1min,y1max,100); 

   9: c2=createSwatch(x2min,x2max,y2min,y2max,80); 

  10: %获取最佳投影方向 

  11: w=fisher_w(c1,c2); 

  12: %计算将样本投影到最佳方向上以后的新坐标 

  13: cm1=c1(1,:)*w(1)+c1(2,:)*w(2); 

  14: cm2=c2(1,:)*w(1)+c2(2,:)*w(2); 

  15: cc1=[w(1)*cm1;w(2)*cm1]; 

  16: cc2=[w(1)*cm2;w(2)*cm2]; 

  17: %打开图形窗口 

  18: figure; 

  19: %绘制多图 

  20: hold on; 

  21: %绘制第一类的样本 

  22: plot(c1(1,:),c1(2,:),'rp'); 

  23: %绘制第二类的样本 

  24: plot(c2(1,:),c2(2,:),'bp'); 

  25: %绘制第一类样本投影到最佳方向上的点 

  26: plot(cc1(1,:),cc1(2,:),'r+'); 

  27: %绘制第二类样本投影到最佳方向上的点 

  28: plot(cc2(1,:),cc2(2,:),'b+'); 

  29: w=10*w; 

  30: %画出最佳方向 

  31: line([-w(1),w(1)],[-w(2),w(2)],'color','k'); 

  32: axis([-10,10,-10,10]); 

  33: grid on; 

  34: hold off; 

fisher_w.m

   1: function w = fisher_w(c1,c2) 

   2: %利用Fisher准则函数确定最佳投影方向 

   3: %c1和c2分别为两类样本的样本矩阵

   4: %得到样本矩阵的尺寸信息 

   5: %样本矩阵的行数代表样本的维数 

   6: %样本矩阵的列数代表样本的个数 

   7:     size1=size(c1); 

   8:     size2=size(c2); 

   9:     %计算两类样本的均值向量 

  10:     m1=sum(c1,2)/size1(2); 

  11:     m2=sum(c2,2)/size2(2); 

  12:     %样本向量减去均值向量 

  13:     c1=c1-m1(:,ones(1,size1(2))); 

  14:     c2=c2-m2(:,ones(1,size2(2))); 

  15:     %计算各类的类内离散度矩阵 

  16:     S1=c1*c1.'; 

  17:     S2=c2*c2.'; 

  18:     %计算总类内离散度矩阵 

  19:     Sw=S1+S2; 

  20:     %计算最佳投影方向向量 

  21:     w=Sw^-1*(m1-m2); 

  22:     %将向量长度变成1 

  23:     w=w/sqrt(sum(w.^2)); 

  24: end

createSwatch.m

   1: function swatch=createSwatch(xmin,xmax,ymin,ymax,num,varargin) 

   2:  

   3: xlen = abs(xmax - xmin);

   4: ylen = abs(ymax - ymin);

   5:  

   6: if numel(varargin)>0 && isa(varargin{1},'function_handle') 

   7:     f = varargin{1}; 

   8: else

   9:     f = @rand;

  10: end 

  11: swatch=[xlen*f(1,num)+min(xmax,xmin);ylen*f(1,num)+min(ymax,ymin)]; 

  12:  

  13: end

  14:  

实验效果如下:

关于fisher判别的一点理解

上一篇:APP测试功能点大全


下一篇:[hibernate]org.hibernate.PropertyAccessException: Null value was assigned to a property of primitive type setter