The perception and large margin classifiers

  假设样例按照到来的先后顺序依次定义为The perception and large margin classifiersThe perception and large margin classifiers为样本特征,The perception and large margin classifiers为类别标签。任务是到来一个样例The perception and large margin classifiers,给出其类别结果The perception and large margin classifiers的预测值,之后我们会看到真实值The perception and large margin classifiers,然后根据真实值来重新调整模型参数,整个过程是重复迭代的过程,直到所有的样例完成。这么看来,我们也可以将原来用于批量学习的样例拿来作为在线学习的样例。在在线学习中,我们主要关注在整个预测过程中预测错误的样例数。

  用The perception and large margin classifiers表示正例,The perception and large margin classifiers表示负例,支持向量机中提到的感知算法(perception algorithm),我们的假设函数为:

The perception and large margin classifiers

  其中,x是n维特征向量,The perception and large margin classifiers是n+1维参数权重。函数g用来将The perception and large margin classifiers计算结果映射到-1和1上。具体公式如下:

The perception and large margin classifiers

提出一个在线学习算法如下:

新来一个样例The perception and large margin classifiers,我们先用从之前样例学习到的The perception and large margin classifiers来得到样例的预测值y,如果The perception and large margin classifiers(即预测正确),那么不改变The perception and large margin classifiers,反之

The perception and large margin classifiers

  如果对于预测错误的样例,The perception and large margin classifiers进行调整时只需加上(实际上为正例)或者减去(实际负例)样本特征x值即可。The perception and large margin classifiers初始值为向量0。这里我们关心的是The perception and large margin classifiers的符号,而不是它的具体值。调整方法非常简单,然而这个简单的调整方法还是很有效的,它的错误率不仅是有上界的,而且这个上界不依赖于样例数和特征维度。

  下面定理阐述了错误率上界:  

  定理(Block and Novikoff

给定按照顺序到来的The perception and large margin classifiers样例。假设对于所有的样例The perception and large margin classifiers,也就是说特征向量长度有界为D。更进一步,假设存在一个单位长度向量The perception and large margin classifiersThe perception and large margin classifiers。也就是说对于y=1的正例,The perception and large margin classifiers,反例The perception and large margin classifiers,u能够有The perception and large margin classifiers的间隔将正例和反例分开。那么感知算法的预测的错误样例数不超过The perception and large margin classifiers

根据对SVM的理解,这个定理就可以阐述为:如果训练样本线性可分,并且几何间距至少是The perception and large margin classifiers,样例样本特征向量最长为D,那么感知算法错误数不会超过The perception and large margin classifiers。这个定理是62年提出的,63年Vapnik提出SVM,可见提出也不是偶然的,感知算法也许是当时的热门。

  下面主要讨论这个定理的证明:

感知算法只在样例预测错误时进行更新,定义The perception and large margin classifiers是第k次预测错误时使用的样本特征权重,The perception and large margin classifiers 初始化为0向量。假设第k次预测错误发生在样例The perception and large margin classifiers上,利用The perception and large margin classifiers计算The perception and large margin classifiers值时得到的结果不正确(也就是说The perception and large margin classifiers,调换x和The perception and large margin classifiers顺序主要是为了书写方便)。也就是说下面的公式成立:

The perception and large margin classifiers

根据感知算法的更新方法,我们有The perception and large margin classifiers。这时候,两边都乘以u得到

The perception and large margin classifiers

两个向量做内积的时候,放在左边还是右边无所谓,转置符号标注正确即可。

这个式子是个递推公式,就像等差数列一样f(n+1)=f(n)+d,由此我们可得:

The perception and large margin classifiers

因为初始The perception and large margin classifiers为0,下面我们利用前面推导出的The perception and large margin classifiersThe perception and large margin classifiers得到

The perception and large margin classifiers

也就是说The perception and large margin classifiers的长度平方不会超过The perception and large margin classifiers与D的平方和。

又是一个等差不等式,得到:

The perception and large margin classifiers

两边开根号得:

The perception and large margin classifiers

其中第二步可能有点迷惑,我们细想u是单位向量的话,

The perception and large margin classifiers

因此上面的不等式成立,最后得到:

The perception and large margin classifiers

也就是预测错误的数目不会超过样本特征向量x的最长长度与几何间隔的平方,实际上整个调整过程中The perception and large margin classifiers就是x的线性组合。

整个感知算法应该是在线学习中最简单的一种了。

上一篇:1、html基础认识&常用标签(1)


下一篇:day45——html常用标签、head内常用标签