深度学习-minibatch

鉴于自己对minibatch一直以来的误解,说明一下minbatch的具体做法。

batch是一次运行所有数据集,只更新一次梯度下降

minibatch是一次运行一个minibatch,更新一次梯度,整个数据集,会更新多次,通常来说,运行更快。 原因可能是w的维数小,参数数量不多。

如下图所示: 右边的图J{t}可能会上升,因为训练的样本不一样,之间会产生噪音误差,但是总体趋势是下降的。
深度学习-minibatch

batch size的选择:

如果是整个训练集,他会不断的收敛到最小,参数过多。

batch size =1,随机梯度下降,不一定会收敛,同时没有用到向量的并行化。

深度学习-minibatch

 

上一篇:Batch Normalization(BN)超详细解析


下一篇:2021机器学习李宏毅-Batch and Momentum