样本集较小(<2000个样本):直接batch梯度下降法
样本集较大:一般mini_batch选择64-512的数,考虑到电脑内存设置和使用方式,batch为2的n次方,代码会运行快一些,比如64,128,256,512(2^6-9),而且还要和cpu/gpu内存相符,,可以多试一下几个,找到让梯度下降算法最高效的大小。
2024-01-31 17:36:40
样本集较小(<2000个样本):直接batch梯度下降法
样本集较大:一般mini_batch选择64-512的数,考虑到电脑内存设置和使用方式,batch为2的n次方,代码会运行快一些,比如64,128,256,512(2^6-9),而且还要和cpu/gpu内存相符,,可以多试一下几个,找到让梯度下降算法最高效的大小。
下一篇:CSA复习11