什么时候用mini_batch或者batch梯度下降法

样本集较小(<2000个样本):直接batch梯度下降法
样本集较大:一般mini_batch选择64-512的数,考虑到电脑内存设置和使用方式,batch为2的n次方,代码会运行快一些,比如64,128,256,512(2^6-9),而且还要和cpu/gpu内存相符,,可以多试一下几个,找到让梯度下降算法最高效的大小。

上一篇:关于supersocker的数据传输中遇到的问题


下一篇:CSA复习11