假设训练数据集合
T
T
T包含
N
N
N个样本,将数据集划分为
B
B
B个块,则每一块称为一个mini-batch,每个mini-batch的大小称为batch size,为
N
B
\frac{N}{B}
BN,利用随机梯度下降训练网络参数时,跑完一个mini-batch称为一步(step),或一次迭代(Iteration),一步完成后计算该步的梯度并对参数更新一次,跑完所有mini-batch称为一个epoch,参数更新了
B
B
B次。
对于一个分类问题,网络在softmax前未缩放的输出称为logits,若采用softmax_cross_entropy_with_logits作为损失函数则需要传入未缩放的logits,函数内部会自动进行softmax,如果传入已经softmax归一化的值则计算结果是错误的。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)