机器学习支持向量机一章都会提到\(\max{\frac{1}{||\omega||}}\)与\(\min{\frac{1}{2}||\omega||^2}\)是等价的
原因在于:
假如有一个函数\(f(\omega),\omega>0\)
若是想要求\(\max{f(\omega)}\),显然当\(\omega\)越小该函数值越大(当然不能等于0).所以就是要求\(\omega\)的最小值,也
就是可以等价于求\(\omega^2\)的最小值(因为\(\omega>0\))。加上系数\(\frac{1}{2}\)是为了后面求导方便。