核方法
核方法定义
定理:令H为核函数κ对应的再生希尔伯特空间,∣∣h∣∣H表示H空间中关于h的范数,对于任意单调递增函数Ω:[0,∞]↦R和任意非负损失函数L:R↦[0.∞],优化问题minF(h)=Ω(∣∣h∣∣H)+L(h(x1),...,h(xm))的解总是可以写成:
h∗(x)=i=1∑mαiκ(x,xi)
表示定理对损失函数没有限制,对于正则化项Ω仅要求单调递增,甚至不要求Ω是凸函数,这就意味着对于一般的损失函数和正则化项,优化问题的最优解h∗(x)都可以表示为核函数κ(x,xi)的线性组合。
核函数的厉害之处从以上皆是就可以看出。
核函数背景
和函数的重要思想:非线性带来高维转换、对偶表示带来内积。
非线性带来高维转换
从线性分类的角度来看:以PLA和SVM为例,我们处理线性可分和不可分的问题时通常是用以下方法:
算法 | 线性可分 | 不是严格线性可分 | 严格非线性 |
---|---|---|---|
感知机算法 | PLA | Pocket Algorithm | ϕ(x)+PLA |
支持向量机 | hard-margin SVM | soft-margin SVM | ϕ+hard-margin SVM(kernel SVM) |
对于严格非线性问题的方法:可以假设通过某种映射X↦Z将输入控件映射到一个特征空间Z,然后再Z中执行线性分类。这就是非线性带来高维转换
对偶表示带来内积
在SVM中我们知道,解决凸优化问题我们依靠的就是最大间隔分类,再通过拉格朗日对偶性见简化为另一种对偶形式,但是对偶形式优化问题里包含一个内积的概念,也就是
λmax∑i=1Nλi−21∑i=1N∑j=1NλiλjyiyjxiTxj
s.t. λi≥0, ∑i=1Nλiyi=0
中的xiTxj,而我们在计算的过程中必须要求出来这个内积。
如果是非线性问题,还需要拓展到高维空间,将xiTxj转换成ϕ(xi)Tϕ(xj),然而高维空间求出这个内积的可能性太小。
而核方法就可以很好的解决这个问题。
核函数定义:κ(x,z)=ϕ(x)Tϕ(z),其中ϕ:X↦H, x、z⊂X
正定核函数
定义:
κ:X×X↦R,任意x,z⊂X,有κ(x,z)
如果存在ϕ:X↦R s.t. κ(x,z)=<ϕ(x),ϕ(z)>,那么称κ(x,z)是正定核函数。
而核函数κ(x,z)必须满足正定性和对称性。
对称性:κ(x,z)=κ(z,x)
正定性:在X中任取N个元素,对应的Gram matrix:κ=[κ(xi,xj)]是半正定的。
关于正定核函数为什么满足对称性和半正定性,有兴趣的可以查阅相关书籍了解一下。