从保存的检查点恢复训练模型时,Tensorflow 批量丢失会出现峰值?

2024-03-12

我遇到了一个奇怪的问题,我一直在尝试调试,但运气不佳。我的模型开始正确训练,批次损失持续减少(从最初的约 6000 到 20 个时期后的约 120)。然而,当我暂停训练并稍后通过从检查点恢复模型来恢复训练时,批次损失似乎比前一个批次损失(暂停之前)意外激增,并从较高的损失点开始恢复下降。我担心的是,当我恢复模型进行评估时,我可能没有使用我认为的经过训练的模型。

与 Tensorflow 教程相比,我已经多次梳理了我的代码。我尝试确保使用教程建议的方法进行保存和恢复。这是代码快照:https://github.com/KaranKash/DigitSpeak/tree/b7dad3128c88061ee374ae127579ec25cc7f5286 https://github.com/KaranKash/DigitSpeak/tree/b7dad3128c88061ee374ae127579ec25cc7f5286- train.py 文件包含保存和恢复步骤、图形设置和训练过程;而 model.py 创建网络层并计算损失。

这是我的打印语句中的一个示例 - 请注意,当从 epoch 7 的检查点恢复训练时,批次损失急剧上升:

Epoch 6. Batch 31/38. Loss 171.28
Epoch 6. Batch 32/38. Loss 167.02
Epoch 6. Batch 33/38. Loss 173.29
Epoch 6. Batch 34/38. Loss 159.76
Epoch 6. Batch 35/38. Loss 164.17
Epoch 6. Batch 36/38. Loss 161.57
Epoch 6. Batch 37/38. Loss 165.40
Saving to /Users/user/DigitSpeak/cnn/model/model.ckpt
Epoch 7. Batch 0/38. Loss 169.99
Epoch 7. Batch 1/38. Loss 178.42
KeyboardInterrupt
dhcp-18-189-118-233:cnn user$ python train.py
Starting loss calculation...
Found in-progress model. Will resume from there.
Epoch 7. Batch 0/38. Loss 325.97
Epoch 7. Batch 1/38. Loss 312.10
Epoch 7. Batch 2/38. Loss 295.61
Epoch 7. Batch 3/38. Loss 306.96
Epoch 7. Batch 4/38. Loss 290.58
Epoch 7. Batch 5/38. Loss 275.72
Epoch 7. Batch 6/38. Loss 251.12

我已经打印了inspect_checkpoint.py 脚本的结果。我还尝试了其他损失函数(Adam 和 GradientDescentOptimizer),并注意到恢复训练后峰值损失有相同的行为。

dhcp-18-189-118-233:cnn user$ python inspect_checkpoint.py
Optimizer/Variable (DT_INT32) []
conv1-layer/bias (DT_FLOAT) [64]
conv1-layer/bias/Momentum (DT_FLOAT) [64]
conv1-layer/weights (DT_FLOAT) [5,23,1,64]
conv1-layer/weights/Momentum (DT_FLOAT) [5,23,1,64]
conv2-layer/bias (DT_FLOAT) [512]
conv2-layer/bias/Momentum (DT_FLOAT) [512]
conv2-layer/weights (DT_FLOAT) [5,1,64,512]
conv2-layer/weights/Momentum (DT_FLOAT) [5,1,64,512]

我遇到了这个问题,发现事实是我在恢复图时初始化了图变量 - 丢弃了所有学习的参数,以替换为原始图定义中最初为每个张量指定的任何初始化值。

例如,如果您使用tf.global_variables_initializer()要将变量初始化为模型程序的一部分,无论您的控制逻辑是什么来指示将恢复已保存的图形,请确保图形恢复流程省略:sess.run(tf.global_variable_initializer())

这对我来说是一个简单但代价高昂的错误,所以我希望其他人能挽救一些白发(或一般情况下的头发)。

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

从保存的检查点恢复训练模型时,Tensorflow 批量丢失会出现峰值? 的相关文章

随机推荐