神经网络中最基本的三个概念:Epoch, Batch, Iteration

记录

训练神经网络中最基本的三个概念:Epoch, Batch, Iteration

个人总结一下batch和epoch

神经网络中最基本的三个概念:Epoch, Batch, Iteration

 神经网络中Batch Size的理解

Batch Size:一次训练所选取的样本数,选择一个适中的Batch_Size值。就是说我们选定一个batch的大小后,将会以batch的大小将数据输入深度学习的网络中,然后计算这个batch的所有样本的平均损失,即代价函数是所有样本的平均。

iteration:中文翻译为迭代。

迭代是重复反馈的动作,神经网络中我们希望通过迭代进行多次的训练以达到所需的目标或结果。

每一次迭代得到的结果都会被作为下一次迭代的初始值。

一个迭代=一个正向通过+一个反向通过。

epoch:中文翻译为时期。

一个时期=所有训练样本的一个正向传递和一个反向传递。

深度学习中经常看到epoch、iteration和batchsize,下面按照自己的理解说说这三个区别:

(1)batchsize:批大小。在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练;
(2)iteration:1个iteration等于使用batchsize个样本训练一次;
(3)epoch:1个epoch等于使用训练集中的全部样本训练一次;

举个例子,训练集有1000个样本,batchsize=10,那么:
训练完整个样本集需要:
100次iteration,1次epoch。
 

神经网络中Epoch、Iteration、Batchsize相关理解和说明

深度学习 | 三个概念:Epoch, Batch, Iteration

上一篇:动手学深度学习 | 批量归一化 | 26


下一篇:数据结构学习--图(三)四种存储结构