Ng第八课:神经网络表述(Neural Networks: Representation)

8.1  非线性假设

8.2  神经元和大脑

8.3  模型表示 1

8.4  模型表示 2

8.5  特征和直观理解 1

8.6  样本和直观理解 II

8.7  多类分类


8.1  非线性假设

无论是线性回归还是逻辑回归都有这样一个缺点,即当特征太多时,计 算的负荷会非常大。

下面是一个例子:

Ng第八课:神经网络表述(Neural Networks: Representation)

之前已经看到过,使用非线性的多项式项,能够帮助我们建立更好的分类模型。

假设我们有非常多的特征,例如大于 100 个变量,想用这 100 个特征来构建一个非线性的多项式模型,结果将是数量非常惊人的特征组合,即便只采用两两特征的组合(x1x2+x1x3+x1x4+...+x2x3+x2x4+...+x99x100),也会有接近 5000 个组合而成的特征。这对于一 般的逻辑回归来说需要计算的特征太多了。

假设希望训练一个模型来识别视觉对象(例如识别一张图片上是否是一两汽车),怎样才能做到呢?一种方法是利用很多汽车的图片和很多非汽车的图片,然后利用这些图片上一个个像素的值(饱和度或亮度)来作为特征。

假如只选用灰度图片,每个像素则只有一个值(非 RGB 值),可以选取图片上的两个不同位置上的两个像素,然后训练一个逻辑回归算法利用这两个像素的值来判断 图片上是否是汽车:

Ng第八课:神经网络表述(Neural Networks: Representation)

假使采用的都是 50x50 像素的小图片,并且我们将所有的像素视为特征,则会有2500 个特征,如果我们要进一步将两两特征组合构成一个多项式模型,则会有约 25002/2  个(接近 3 百万个)特征。普通的逻辑回归模型,不能有效地处理这么多的特征,这时候就需要神经网络。


8.2  神经元和大脑

神经网络是一种很古老的算法,它最初产生的目的是制造能模拟大脑的机器。

神经网络逐渐兴起于二十世纪八九十年代,应用得非常广泛。但由于各种原因,在 90 年代的后期应用减少了。但是最近,神经网络又东山再起了。其中一个原因是:神经网络是计算量有些偏大的算法。然而大概由于近些年计算机的运行速度变快,才足以真正运行起大规模的神经网络。正是由于这个原因和其他一些技术因素,如今的神经网络对于许多应用来说是最先进的技术。

我们能学习数学,学着做微积分,而且大脑能处理各种不同的令人惊奇的事情。似乎如果想要模仿它,得写很多不同的软件来模拟所有这些五花八门的奇妙的事情。不过能不能假设大脑做所有这些,不同事情的方法,不需要用上千个不同的程序去实现。相反的,大脑处理的方法,只需要一个单一的学习算法就可以了?尽管这只是一个假设,先分享,些这方面的证据:

Ng第八课:神经网络表述(Neural Networks: Representation)

大脑的这一部分这一小片红色区域是你的听觉皮层,神经系统科学家做了下面这个有趣的实验,把耳朵到听觉皮层的神经切断。将其重新接到一个动物的大脑上,使得从眼睛到视神经的信号最终将传到听觉皮层。结果表明听觉皮层将会学会“看”。这里的“看”代表了我们所知道的每层含义。所以,如果你对动物这样做,那么动物就可以完成视觉辨别任务,它们可以看图像, 并根据图像做出适当的决定。再举另一个例子,这块红色的脑组织是躯体感觉皮层,如果做一个和刚才类似的重接实验,那么躯体感觉皮层也能学会“看”。这个实验和其它一些类似的实验,被称为神经重接实验,从这个意义上说,如果人体有同一块脑组织可以处理光、声或触觉信号, 那么也许存在一种学习算法,可以同时处理视觉、听觉和触觉,而不是需要运行上千个不同 的程序。也许我们需要做的就是找出一些近似的或实际的大脑学习算法,然后实现大脑如果通过自学掌握如何处理这 些不同类型的数据。在很大的程度上,可以猜想如果我们把几乎任何一种传感器接入到大脑的几乎任何一个部位的话,大脑就会学会处理它。

下面再举几个例子:

Ng第八课:神经网络表述(Neural Networks: Representation)

这张图是用舌头学会“看”的一个例子。它的原理是:这实际上是一个名为 BrainPort 的系统,它现在正在 FDA (美国食品和药物管理局) 的临床试验阶段。它的原理是,在前额上带一个灰度摄像头,面朝前它就能获取面前事物的低分辨率的灰度图像。再连一根线到舌头上安装的电极阵列,那么每个像素都被映射到舌头的某个位置上,可能电压值高的点对应一个亮像素。即使依靠它现在的功能,使用这种系统就能让你我在几十分钟里就学会用我们的舌头“看”东西。

Ng第八课:神经网络表述(Neural Networks: Representation)

这是第二个例子,关于人回声定位或者说人体声纳。 YouTube上有个视频讲述 了一个令人称奇的孩子,他因为癌症眼球惨遭移除,虽然失去了眼球,但是通过打响指,他可以四处走动而不撞到任何东西,他能滑滑板,他可以将篮球投入篮框中。

Ng第八课:神经网络表述(Neural Networks: Representation)

第三个例子是触觉皮带,如果把它戴在腰上,蜂鸣器会响,而且总是朝向北时发出嗡 嗡声。它可以使人拥有方向感,用类似于鸟类感知方向的方式。

还有一些离奇的例子:

Ng第八课:神经网络表述(Neural Networks: Representation)

如果在青蛙身上插入第三只眼,青蛙也能学会使用那只眼睛。如果你能把几乎任何传感器接入到大脑中,大脑的学习算法就能找出学习数据的方法, 并处理这些数据。从某种意义上来说,如果我们能找出大脑的学习算法,然后在计算机上执 行大脑学习算法或与之相似的算法,也许这将是向人工智能迈进做出的最好的尝试。


8.3  模型表示 1

为了构建神经网络模型,我们需要首先思考大脑中的神经网络是怎样的?每一个神经元 都可以被认为是一个处理单元/神经核(processing   unit/  Nucleus),它含有许多输入/树突(input/Dendrite),并且有一个输出/轴突(output/Axon)。神经网络是大量神经元相互链接并通过电脉冲来交流的一个网络。

Ng第八课:神经网络表述(Neural Networks: Representation)

下面是一组神经元的示意图,神经元利用微弱的电流进行沟通。这些弱电流也称作动作电位,其实就是一些微弱的电流。所以如果神经元想要传递一个消息,它就会就通过它的轴突,发送一段微弱电流给其他神经元,这就是轴突。

这里是一条连接到输入神经,或者连接另一个神经元树突的神经,接下来这个神经元接收这条消息,做一些计算,它有可能会将在轴突上的自己的消息传给其他神经元。这就是所有人类思考的模型:我们的神经元把自己的收到的消息进行计算,并向其他神经元传递消息。如果你想活动一块肌肉,就会触发一个神经元给你的肌肉发送脉冲,并引起你的肌肉收缩。如果一些感官:比如说眼睛想要给大脑传递 一个消息,那么它就像这样发送电脉冲给大脑的。

Ng第八课:神经网络表述(Neural Networks: Representation)

神经网络模型建立在很多神经元之上,每一个神经元又是一个个学习模型。这些神经元(也叫激活单元,activation unit)采纳一些特征作为输入,并且根据本身的模型提供一个输出。下图是一个以逻辑回归模型作为自身学习模型的神经元示例,在神经网络中,参数又可被成为权重(weight)。

Ng第八课:神经网络表述(Neural Networks: Representation)

我们设计出了类似于神经元的神经网络,效果如下:

Ng第八课:神经网络表述(Neural Networks: Representation)

其中 x1,x2,x3 是输入单元(input units),我们将原始数据输入给它们。

a1,a2,a3 是中间单元,它们负责将数据进行处理,然后呈递到下一层。

最后是输出单元,它负责计算 h(x)。

神经网络模型是许多逻辑单元按照不同层级组织起来的网络,每一层的输出变量都是下 一层的输入变量。下图为一个 3 层的神经网络,第一层成为输入层(Input Layer),最后一 层称为输出层(Output  Layer),中间一层成为隐藏层(Hidden Layers)。我们为每一层都增加一个偏差单位(bias unit):

Ng第八课:神经网络表述(Neural Networks: Representation)

下面引入一些标记法来帮助描述模型:

Ng第八课:神经网络表述(Neural Networks: Representation)

Ng第八课:神经网络表述(Neural Networks: Representation)

例如Ng第八课:神经网络表述(Neural Networks: Representation)

例如:上图所示的神经网络中Ng第八课:神经网络表述(Neural Networks: Representation)

对于上图所示的模型,激活单元和输出分别表达为:(θ为权重矩阵中的元素)

Ng第八课:神经网络表述(Neural Networks: Representation)

上面进行的讨论中只是将特征矩阵中的一行(一个训练实例)喂给了神经网络,我们需要将整个训练集都喂给我们的神经网络算法来学习模型。

我们可以知道:每一个 a 都是由上一层所有的 x 和每一个 x 所对应的权重决定的。

(我们把这样从左到右的算法称为前向传播算法( FORWARD PROPAGATION ))

把 x,  ,a 分别用矩阵表示:

Ng第八课:神经网络表述(Neural Networks: Representation)


8.4  模型表示 2

前向传播算法相对于使用循环来编码,利用向量化的方法会使得计算更为简便。

以上面的神经网络为例,试着计算第二层的值:

Ng第八课:神经网络表述(Neural Networks: Representation)

Ng第八课:神经网络表述(Neural Networks: Representation)

为了更好了解 Neuron Networks 的工作原理,我们先把左半部分遮住:

Ng第八课:神经网络表述(Neural Networks: Representation)

右半部分其实就是以 a0,a1,a2,a3 按照 Logistic Regression 的方式输出 h(x):

Ng第八课:神经网络表述(Neural Networks: Representation)

其实神经网络就像是 logistic regression,只不过把 logistic regression 中的输入向量[x1~x3]变成了中间层的[a(2)1~a(2)3],  即

Ng第八课:神经网络表述(Neural Networks: Representation)

Ng第八课:神经网络表述(Neural Networks: Representation)(与θ)


8.5  特征和直观理解 1

从本质上讲,神经网络能够通过学习得出其自身的一系列特征(原始输入数据经过学习再变成更好的输入数据)。在普通的逻辑回归中, 我们被限制为使用数据中的原始特征 x1,x2,...,xn,虽然可以使用一些二项式项来组合这 些特征,但是仍然受到这些原始特征的限制。

在神经网络中,原始特征只是输入层,在我们上面三层的神经网络例子中,第三层也就是输出层做出的预测利用的是第二层的特征, 而非输入层中的原始特征,我们可以认为第二层中的特征是神经网络通过学习后自己得出的 一系列用于预测输出变量的新特征。

神经网络中,单层神经元(无中间层的)的计算可用来表示逻辑运算,比如逻辑 AND、NOR或 OR 。

举例说明:逻辑与 AND;下图中左半部分是神经网络的设计与 output 层表达式,右边上部分是 sigmod 函数,下半部分是真值表。

我们可以用这样的一个神经网络表示 AND 函数:

Ng第八课:神经网络表述(Neural Networks: Representation)

Ng第八课:神经网络表述(Neural Networks: Representation)

(真值表代入函数根据图像得出h(θ)值)

所以有:

Ng第八课:神经网络表述(Neural Networks: Representation)

所以结论是:这就是 AND 函数。

接下来再介绍一个 OR 函数:

Ng第八课:神经网络表述(Neural Networks: Representation)

OR 与 AND 整体一样,区别只在于θ的取值不同。


8.6  样本和直观理解 II

二元逻辑运算符当输入特征为布尔值时,可以用一个单一的激活层可以作为二元逻辑运算符,为了表示不同的运算符,选择不同的权重即可。

下图的神经元(三个权重分别为-30,20,20)可以被视为作用同于逻辑与(AND):

Ng第八课:神经网络表述(Neural Networks: Representation)

我们可以利用神经元来组合成更为复杂的神经网络以实现更复杂的运算。例如要实现XNOR 功能(输入的两个值必须一样,均为 1 或均为 0),即 XNOR=(x1ANDx2) OR((NOTx1)AND(NOTx2))            #这又跟逻辑代数和硬件逻辑扯上关系了

首先构造一个能表达(NOTx1)AND(NOTx2)部分的神经元:

Ng第八课:神经网络表述(Neural Networks: Representation)#确实很厉害0.0


8.7  多类分类

当有不止两种分类时(也就是 y=1,2,3….),比如如果要训练一个神经网络算法来识别路人、汽车、摩托车和卡车,在输出层我们应该有 4 个值。例如,第一个值为 1 或 0 用于预测是否是行人,第二个值用于判断是否为汽车。 输入向量 x 是三维,两个中间层,输出层 4 个神经元分别用来表示 4 类,也就是输出的每一个数据都会出现[a b c d]T,且 a,b,c,d 中仅有一个为 1,表示当前类。下面是该神 经网络的可能结构示例:

Ng第八课:神经网络表述(Neural Networks: Representation)

神经网络算法的输出结果为四种可能情形之一:

Ng第八课:神经网络表述(Neural Networks: Representation)

 

上一篇:2017-12-21 FriceEngine试用与API中文化


下一篇:linux服务器启动报错UNEXPECTED INCONSISTENCY解决方法