【翻译】Sklearn与TensorFlow机器学习实用指南 —— 附录 C、SVM 对偶问题

本文来自云栖社区官方钉群“Python技术进阶”,了解相关信息可以关注“Python技术进阶”。

为了理解对偶性,你首先得理解拉格朗日乘子法。它基本思想是将一个有约束优化问题转化为一个无约束优化问题,其方法是将约束条件移动到目标函数中去。让我们看一个简单的例子,例如要找到合适的 x 和 y 使得函数 最小化,且其约束条件是一个等式约束。使用拉格朗日乘子法,我们首先定义一个函数,称为拉格朗日函数。每个约束条件(在这个例子中只有一个)与新的变量(称为拉格朗日乘数)相乘,作为原目标函数的减数。
Joseph-Louis Lagrange 大牛证明了如果是原约束优化问题的解,那么一定存在一个,使得是拉格朗日函数的驻点(驻点指的是,在该点处,该函数所有的偏导数均为 0)。换句话说,我们可以计算拉格朗日函数
关于以及的偏导数;然后我们可以找到那些偏导数均为 0 的驻点;最后原约束优化问题的解(如果存在)一定在这些驻点里面。

【翻译】Sklearn与TensorFlow机器学习实用指南 —— 附录 C、SVM 对偶问题

【翻译】Sklearn与TensorFlow机器学习实用指南 —— 附录 C、SVM 对偶问题

【翻译】Sklearn与TensorFlow机器学习实用指南 —— 附录 C、SVM 对偶问题

【翻译】Sklearn与TensorFlow机器学习实用指南 —— 附录 C、SVM 对偶问题

原文发布时间为:2018-07-11
本文作者:ApacheCN【翻译】
本文来自云栖社区官方钉群“Python技术进阶”,了解相关信息可以关注“Python技术进阶”。

Python技术进阶交流群


【翻译】Sklearn与TensorFlow机器学习实用指南 —— 附录 C、SVM 对偶问题

上一篇:[译]何时使用 Parallel.ForEach,何时使用 PLINQ


下一篇:Winform开发框架之统计图表的实现