- 表现:训练过程中loss值一直震荡,没有下降趋势
- 原因一:梯度消失;多因为网络深度过深,接近输入层的参数 梯度过小; 解决方法:调整网络,激活函数relu,batch normal, 残差网络等
- 原因二:训练数据分布不均匀;这种情况对训练数据shuffle即可
- 原因三:学习率过大或者过小;过大就会在loss最小处周围震荡,通常一开始会有一定下降;过小就是收敛太慢
- tensorflow2中可以直接打出每个step的梯度值,便于发现问题
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)