有什么区别epoch and 迭代当训练多层感知器时?
在神经网络术语中:
- one epoch= 一次前向传播和一次反向传播all训练示例
-
批量大小= 一次前向/后向传递中的训练示例数。批量大小越大,需要的内存空间就越大。
- 数量迭代= 遍数,每遍使用 [batch size] 示例数。需要明确的是,一次传球 = 一次前向传球 + 一次后向传球(我们不将前向传球和后向传球算作两次不同的传球)。
例如:如果您有 1000 个训练样本,并且您的批量大小为 500,那么需要 2 次迭代才能完成 1 个 epoch。
FYI: 权衡批量大小与训练神经网络的迭代次数
“批次”一词是不明确的:有些人用它来指定整个训练集,有些人用它来指一次前向/后向传递中的训练示例的数量(正如我在这个答案中所做的那样)。为了避免这种歧义并明确批次对应于一次前向/后向传递中的训练示例的数量,可以使用术语小批量.
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)