Bp神经网络的调参(未完,待续)

                                            Bp神经网络的调参(未完,待续)

    各位数据游侠,炼丹师,由于最近项目上的数据迟迟未到,闲的无聊,so 盘一盘神经网络。虽说之前各种大大小小的网络都使用过,然而对其网络的改进工作却迟迟没有落实,所以。。。不过经过几天时间的摸索,看了各大教程,大多数文章都是不管三七二十一,先甩出一大堆理论(比如:超参数,前前后后一共接近十几个)暂且不谈你能否调出一个好的神经网络模型,就这么参数的组合,估计也是够喝一壶的了。我这几天着重的对learing_rate(学习率)和batch_size(每批送入到网络训练的数据)这两个参数进行了调参的操作,后来再针对梯度下降的方法进行了优化,使用了优化器加快了梯度下降的步伐。大多数教程显示了很多理论,并没有具体的操作,下面是我最近几天调参的一些心得,当然还有待更新。

                                                               第一部分.数据集

    由于项目上的数据集数量比较少,在这里我一样采用的那个经典的数据集:Mnist数据集,在这儿附上下载链接:mnist手写数据集至于这数据集的格式啥的,我不过多的介绍,相信只要是搞过深度学习这个方向的都会知道这数据集的格式。至于刚入门并不了解的,可以自行百度

上一篇:[Erlang 0047] Erlang 进制转换


下一篇:python案例:金融营销活动中欺诈用户行为分析