Coursera台大机器学习技法课程笔记12-Neural Network

由perceptron线性组成的一个神经网络:

Coursera台大机器学习技法课程笔记12-Neural Network

通过赋予g不同的权值,来实现不同的切分功能:

Coursera台大机器学习技法课程笔记12-Neural Network

但有的切分只通过一次特征转换是不够的,需要多次转换,如下:

Coursera台大机器学习技法课程笔记12-Neural Network

Neural Network Hypothesis:为了便于优化,将sign(离散)变成tanh,这个函数相当于regression的拉伸与平移:

Coursera台大机器学习技法课程笔记12-Neural Network

然后给了一个物理解释:衡量x与权值向量在模式上的的相似程度

Coursera台大机器学习技法课程笔记12-Neural Network

那么怎么得到权值w呢:可以在最后的错误上对各个权值求偏微分,得到权值变化的方向:

Coursera台大机器学习技法课程笔记12-Neural Network

直接求微分不好求,可先求最后一个:

Coursera台大机器学习技法课程笔记12-Neural Network

给了一个算法:

Coursera台大机器学习技法课程笔记12-Neural Network

这样的类神经网络容易陷于局部最优,解决方法是使用随机的较小的权值

Coursera台大机器学习技法课程笔记12-Neural Network

这个模型的复杂度,要小心overfit

Coursera台大机器学习技法课程笔记12-Neural Network

为了防止overfit,可以采用regularization,关于正则化项的选取:

Coursera台大机器学习技法课程笔记12-Neural Network

还介绍了另外一种regularization的方法:

Coursera台大机器学习技法课程笔记12-Neural Network

上一篇:机器学习: Python with Recurrent Neural Network


下一篇:ubuntu将默认中文改成英文