5-线性分类-总体概述

文章目录

频率派机器学习

5-线性分类-总体概述

1. 线性回归

我们知道线性回归的基本模型是 f ( w , b ) = w T x + b f(w,b)=w^Tx+b f(w,b)=wTx+b,线性回归有三要素:1.线性 ;2.全局性 ;3.数据未加工;新的机器学习的算法就是为了打破这三个要素而产生的

1.1 线性

1.1.1 属性非线性

属性非线性就是从未知数入手,比如说用特征变换的方法将变量从一维变换到高位,相当于二次型的意思,比如有时候数据会表示成: x 1 2 + x 2 2 + x 1 x 2 + . . . + x p 2 x_1^2+x_2^2+x_1x_2+...+x_p^2 x12​+x22​+x1​x2​+...+xp2​

1.1.2 全局非线性

全局非线性的方法:是通过对函数的运算结果增加一个函数,来将线性函数改造成非线性函数,比如,神经网络中的激活函数,还有通过阀值来将软分类变成硬分类的分类函数

1.1.3 系数非线性

所谓系数非线性,就是系数的生成结果并不是单一的。就像神经网络算法一样,算法的收敛结果是一个分布,也就是位于一个区间之中,这样的算法结果一定不是线性的,这种通过了不确定的方法来引入非线性。

1.2 全局性

所谓全局性,也就是将所有的数据看成一个整体来进行拟合,而打破的方法很简单,就是将数据之间分隔开,分段进行拟合。代表有 线性样条回归,决策树等方法

1.3 数据未加工

就是输入数据不经过加工直接的输入模型中,那么我们就用新的方法将这个打破,比如:主成分分析PCA,流形等方法来对输入数据进行预处理

2. 线性分类与线性回归关系

线性回归和线性分类之间有着很大的联系,从某种意义上来说,线性分类就是线性回归函数使用激活函数的结果。同时也可以看成是线性回归降维的结果。对于一个线性回归函数,我们可以通过添加全局函数的形式来将其转换为线性分类函数,
y = w T x + b → y = f ( w T x + b ) y=w^Tx+b \rightarrow y=f(w^Tx+b) y=wTx+b→y=f(wTx+b)
注 : f ( w T x + b ) 注:f(w^Tx+b) 注:f(wTx+b)为激活函数,y的值域为{0,1}或者[0,1];这里我们区分两个,如果只有0,1这两个数值,那么就是硬分类,如果是区间[0,1],那么就是软分类; 可 以 看 出 f 函 数 将 w T x + b ⟼ 可以看出f函数将w^Tx+b\longmapsto 可以看出f函数将wTx+b⟼{0,1};所以 f f f是激活函数;而 f − 1 f^{-1} f−1被称为链接函数,将{0,1} ⟼ \longmapsto ⟼ w^Tx+b

2.1 硬分类

所谓硬分类就是y的值域只有两个0,1;大致上可以分成线性判别分析,也就是Fisher判别分析和感知机

2.2 软分类

软分类就是y的值域在区间[0,1],大致可以分成生成式模型:
Gaussian Distribution Analysis 和著名的判别式模型Logistic Regression
P ( y ∣ x ) = p ( x ∣ y ) p ( y ) p ( x ) ∝ p ( x ∣ y ) p ( y ) P(y|x)=\frac{p(x|y)p(y)}{p(x)}\propto p(x|y)p(y) P(y∣x)=p(x)p(x∣y)p(y)​∝p(x∣y)p(y)
我们在求解p(y=0|x)或p(y=1|x)的时候,我们不直接求谁大谁小,而是转向求p(x|y=0)p(y)或p(x|y=1)p(y=1)

3.感知机模型

感知机模型的中心思想是求被错误分类的点的个数。

上一篇:Spring中声明式事务


下一篇:ASP.NET MVC 5 - 给电影表和模型添加新字段