极其淡腾的一学期终于过去了,暑假打算学*大的这门机器学习技法。
第一课是对SVM的介绍,虽然之前也学过,但听了一次感觉还是很有收获的。这位博主总结了个大概,具体细节还是
要听课:http://www.cnblogs.com/bourneli/p/4198839.html
这位博主总结的很详细:http://www.cnblogs.com/xbf9xbf/p/4617120.html
这节课提出了一个重要的概念--maxmum margin(它和hinge loss是线性SVM最重要的两个部分),离分类面最近的点到分类面最远的距离;所需要优化的目标及限制条件。
这就是最原始的线性SVM,其实和正则化是非常像的。