桐影317第五章小组讨论

桐影317第五章小组讨论

学习第五章的过程中,我们发现了一个难以理解的名词——“支持向量机”。书上的只言片语十分抽象,于是我们试图查阅资料来了解它。

支持向量机(Support Vector Machine, SVM)是一类按监督学习(supervised learning)方式对数据进行二元分类的广义线性分类器(generalized linear classifier),其决策边界是对学习样本求解的最大边距超平面(maximum-margin hyperplane)。
SVM使用铰链损失函数(hinge loss)计算经验风险(empirical risk)并在求解系统中加入了正则化项以优化结构风险(structural risk),是一个具有稀疏性和稳健性的分类器。SVM可以通过核方法(kernel method)进行非线性分类,是常见的核学习(kernel learning)方法之一。

支持向量机(Support Vector Machine, SVM)是一类按监督学习(supervised learning)方式对数据进行二元分类的广义线性分类器(generalized linear classifier),其决策边界是对学习样本求解的最大边距超平面(maximum-margin hyperplane)。
SVM使用铰链损失函数(hinge loss)计算经验风险(empirical risk)并在求解系统中加入了正则化项以优化结构风险(structural risk),是一个具有稀疏性和稳健性的分类器。SVM可以通过核方法(kernel method)进行非线性分类,是常见的核学习(kernel learning)方法之一。
SVM被提出于1964年,在二十世纪90年代后得到快速发展并衍生出一系列改进和扩展算法,在人像识别、文本分类等模式识别(pattern recognition)问题中有得到应用。SVM被提出于1964年,在二十世纪90年代后得到快速发展并衍生出一系列改进和扩展算法,在人像识别、文本分类等模式识别(pattern recognition)问题中有得到应用。

由于支持向量机涉及的内容对现阶段的我们来说比较深奥,我只能粗浅地对其进行概括:
简单地说,支持向量机是一种经过精密设计的分类器。支持向量指模型中距离最近的不同类样本中的两个点,它们之间的垂直距离(法向量方向上)叫做间隔(gap)。而取间隔的操作可谓是SVM的灵魂(我认为),因为SVM的优越性就在于其在分类的同时尽可能地保证样本边界的点到间隔的距离相等。因此,即使在已经“划好”间隔的两个样本中再分别加入新的数据,SVM在之前所划定的间隔几乎依然可以将它们完美分开,这一点可谓是吊打其他各路分类法。而要得到需要的、尽可能完善的分类,则需要建立复杂的数学模型并通过精密的运算来确定。但是,面对数据集交融不可分的情况,因为SVM是线性分类器,所以就略显手足无措了。在这种情况下,我们一般加入容错率,来保证大局上的正确性。如果是遇到线性不可分的情况,比如一个样本数据将另一个以圆圈的方式包围,那SVM是万万做不到将数据分类的。

桐影317第五章小组讨论

上一篇:桐影317第七周小组讨论


下一篇:ccf csp 201903-5 317号任务