【学习记录】《DeepLearning.ai》第七课:超参数调试、Batch正则化和程序框架

第七课:超参数调试、Batch正则化和程序框架

7.1 调试处理(Tuning process)

【学习记录】《DeepLearning.ai》第七课:超参数调试、Batch正则化和程序框架

我们通常需要处理超参数,如上图。

第一个是学习率,第二个是Moentum(动量梯度下降法)的参数,如果使用了Adam优化算法,也需要调整第三个参数,第三行参数一般有默认值,如图所示。

第四行表示神经网络的层数,第五行是隐藏单元数量,第六行是学习率衰减,第七行是mini-batch的尺寸。

对于参数进行随机取值能够提高搜索效率

其中学习率是最重要的调试参数


7.2 为超参数选择合适的范围(Using an appropriate scale to pick hyperparameters)

首先对学习率$\alpha$​的选择:

【学习记录】《DeepLearning.ai》第七课:超参数调试、Batch正则化和程序框架

如上图所示,简单解释一下,让学习率在0.0001到1之间取值,用到Python中可以这样做:

r=-4*np.random.rand()
alpha=10^r

对于上面的式子,r的取值范围为[-4,0],进而得到alpha的取值为[0.0001,1]

其次对于指数加权平均值的参数$\beta$​选择:

假设$\beta$​在[0.9,0.999]之间取值,如下图:

【学习记录】《DeepLearning.ai》第七课:超参数调试、Batch正则化和程序框架

同样可以用上面的方法,先计算$1-\beta$的值,

$$ r\in[-3,-1]\\ 1-\beta=10^r\\ \beta=1-10^r $$

【学习记录】《DeepLearning.ai》第七课:超参数调试、Batch正则化和程序框架

注意上图两个取值范围的区别,选择第二个,第一个大概取十个平均值,而对于第二个来说,是取1000、2000个值,注意区别。


7.3 超参数调试实践:(Pandas VS Caviar)

【学习记录】《DeepLearning.ai》第七课:超参数调试、Batch正则化和程序框架

第一种情况用于数据量较大同时计算机算力不足的情况,一遍训练一遍调整参数。

第二种情况用于数据量适中同时计算机算力强大的情况,可以多次训练模型进而选择较好的参数。

尝试选择不同的超参数。


7.4 归一化网络的激活函数(Normalizing activations in a network)

Batch归一化算法

【学习记录】《DeepLearning.ai》第七课:超参数调试、Batch正则化和程序框架

对神经网络的某一层进行归一化,步骤如上图所示。

$$ \widetilde Z^{(i)}=\gamma Z^{(i)}_{norm}+\beta $$

该算法的的作用是使得隐藏单元值的均值和方差标准化,也就是$Z^{(i)}$​有固定的均值和方差,均值和方差的大小由$\gamma$和$\beta$两个参数来控制的。


7.5 将Batch Norm拟合进神经网络(Fitting Batch Norm into a neural network)

【学习记录】《DeepLearning.ai》第七课:超参数调试、Batch正则化和程序框架

个人理解:将Batch Norm拟合进神经网络指的是执行下面的过程:

【学习记录】《DeepLearning.ai》第七课:超参数调试、Batch正则化和程序框架

也就是执行完前两步之后引入再计算$\widetilde Z^{[i]}$​,然后其他正常往后计算。原理还是似懂非懂。。。


7.6 Batch Norm 奏效的原因

Batch归一化的作用:当输入值发生改变时,它可以使这些值变得更稳定,或者说其减弱了前层参数与后层参数的作用之间的联系,使得网络每层都可以自己学习,稍微独立于其它层,能够加快整个网络的学习。

其还有一个作用,有轻微的正则化效果,

所以和dropout相似,它往每个隐藏层的激 活值上增加了噪音, dropout有增加噪音的方式,它使一个隐藏的单元,以一定的概率乘以 0,以一定的概率乘以 1,所以你的 dropout含几重噪音,因为它乘以 0或 1。

Batch归一化含有几重噪音。

也可以将Batch归一化和dropout一起使用,获得更强大的正则化效果。

同时应用尺寸较大的mini-batch可以减少正则化效果。

最后需要知道,Batch归一化一次只能处理一个mini-batch数据,它在mini-batch上计算均值和方差。

水平有限,看了课也就只能理解这么多了。。。


7.7 测试时的Batch Norm

Batch归一化将你的数据以mini-batch的形式逐一处理,但是在测试中,可能需要对每一个样本逐一处理。

总结下这节内容吧:

【学习记录】《DeepLearning.ai》第七课:超参数调试、Batch正则化和程序框架

通常在训练时候,$\mu$和$\sigma^2$是整个mini-batch上计算出来的包含了比如64/128尺寸大小的样本数量。然而测试时候我们需要一个个处理样本,在这块我们需要使用指数加权平均来得到我们需要的$\mu$和$\sigma^2$,然后在测试中使用$\mu$和$\sigma^2$来计算隐藏单元所需要的z值。


7.8 Softmax回归(Softmax regression)

应用于多分类问题

【学习记录】《DeepLearning.ai》第七课:超参数调试、Batch正则化和程序框架

应用在最后一层,此时激活函数为:

$$ Z^{[l]}=W^{[l]}a^{[l-1]}+b^{[l]}\\ 激活函数如下:t=e^{z^{[l]}}\\ a^{[l]}=\frac{e^{z^{[l]}}}{\sum_{j=1}^{4}t_i}或者:a^{[l]}_i=\frac{t_i}{\sum_{j=1}^{4}t_i} $$

本例最后有四个输出分类。可以看到最后输出的是每个类别的可能性。


7.9 训练一个Softmax分类器(Training a Softmax classifier)

在Softmax中的损失函数是:

$$ L(\widehat y,y)=-\sum_{j=1}^{4}y_jlog\widehat y_j $$

【学习记录】《DeepLearning.ai》第七课:超参数调试、Batch正则化和程序框架

要保证损失函数最小,如上图所示,只要$\widehat y$足够大,也就是针对某一类的预测概率足够大即可。

概括来讲,损失函数所做的就是它找到你的训练集中的真实类别,然后试图使该类别相应的概率尽可能地高。

【学习记录】《DeepLearning.ai》第七课:超参数调试、Batch正则化和程序框架

注意上图中的维度

对于整个训练集的损失函数:

$$ J(w^{[1]},b^{[1]},...,...)=\frac{1}{m}\sum_{i=1}^{m}L(\widehat y^{(i)},y^{(i)}) $$

使用梯度下降法,使得损失函数的值最小:

$$ dz^{[l]}=\widehat y-y $$

吴老师说,使用一种深度学习的编程框架,我们只需要关注把前向传播做好,程序会自动做好反向传播。


7.10 深度学习框架(Deep Learning frameworks)

【学习记录】《DeepLearning.ai》第七课:超参数调试、Batch正则化和程序框架

选择深度学习框架需要注意如下事项:

1.便于编程

2.运行速度较快

3.框架开源


7.11 Tensorflow

【学习记录】《DeepLearning.ai》第七课:超参数调试、Batch正则化和程序框架

通常tensorflow框架内置了许多优化函数,如梯度下降,adams等方法。


OVER!

继续冲!!!

上一篇:研一小白ECS使用体验


下一篇:通过Docker快速搭建Mysql测试开发环境