逻辑关系下的NN应用

​ 自己好奇搜了几篇别人对Ng视频的的笔记,读下去可观性很强,后回到自己的笔记却觉得矛盾很多,有些地方搞得很模糊,自己没有仔细去想导致写完读起来很怪,此篇之后我决定放慢记笔记的速度,力求尽多地搞清楚模糊点。

​ 首先之前一直出现的regression analysis(即:回归分析) 究竟是怎么回事?为什么要用回归分析做分类器。“回归分析是研究一个变量关于另一个(些)变量的具体依赖关系的计算方法和理论”敝如前述中曾经举过的例子:试图根据房屋的占地(size)与起居室的数目(number)、房屋的层数(floor)预测房屋的价格,这里的依赖关系从价格输出与3个特征的输入之间体现出来,我们利用所建立的回归分析模型来为接下来其他的输入预测输出。

直观下的NN案例

​ 预测输入\(x_1\)与\(x_2\)进行逻辑与的结果是神经网络中最简单的一个应用案例,功能函数图形如下:

逻辑关系下的NN应用

​ 鉴于\(x_0\)为偏置单元,该值的取值总为1.

​ 我们设置第一个theta矩阵参数:

​ \(\Theta^{(1)}=[-30 \ 20\ 20]\)

​ 介于逻辑与的运算法则:

逻辑关系下的NN应用

​ 因此,我们通过使用小型神经网络而不是使用实际的AND门来构建计算机中的基本操作之一。 神经网络也可用于模拟所有其他逻辑门。 以下是逻辑运算符“OR”的示例:

​ \(\Theta^{(1)}\)矩阵分别对逻辑AND、NOR、OR的运算取值如下:

逻辑关系下的NN应用

​ 组合起来,可以得到XNOR的运算(\(x_1\)和\(x_2\)都是0或1时结果输出1)

逻辑关系下的NN应用

​ 对于第一层到第二层的参数\(\Theta^{(1)}\)取值如下:主要实现了AND(与门)和NOR(或非门)的功能:

逻辑关系下的NN应用

​ 对于第二层到第三层我们的参数选取为\(\Theta^{(2)}\):

​ \(\Theta^{(2)}=[-10\ 20\ 20]\)

​ 总结一下为:

逻辑关系下的NN应用

多级分类 (Multiclass Classification)

​ 为了将数据分类到多个类中,我们假设函数返回值的向量。 假设我们想将我们的数据分为四类。 我们将使用以下示例来了解此分类是如何完成的。 该算法将图像作为输入并进行相应的分类:

逻辑关系下的NN应用

​ 据上图共4类我们定义输出的结果y为:

逻辑关系下的NN应用

​ 每个\(y^{(i)}\)表示对应于汽车、行人、卡车或摩托车的不同图像。 内层每个都为我们提供一些新的信息,导致我们的最终假设功能。如下图:

逻辑关系下的NN应用

​ 输出结果类似于下图:

逻辑关系下的NN应用

​ 上图的结果表明得到的是第三个或\(h_\Theta(x)_3\),代表上图中的摩托车。

下一节将对编程练习ex3做介绍。

上一篇:海量字符串查找——bloom filter,c


下一篇:HDU 1022(火车过站 栈)