我正在尝试训练一个非常大的模型。因此,我只能将非常小的批量大小放入 GPU 内存中。处理小批量的结果非常噪声梯度估计 https://stackoverflow.com/a/33717093/1714410.
我该怎么做才能避免这个问题?
您可以更改iter_size
在求解器参数中。
Caffe 累积梯度iter_size
x batch_size
每个随机梯度下降步骤中的实例。
所以增加iter_size
当由于内存有限而无法使用大的batch_size时,也可以获得更稳定的梯度。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)