iterator.get_next() 导致在抛出 'std::system_error 实例后调用终止

2023-12-21

我正在使用张量流训练 resNet50,使用具有以下属性的共享服务器:

ubuntu 16.04 3 个 GTX 1080 GPU 张量流1.3 蟒蛇2.7 但总是在两个纪元之后,在第三个纪元期间,我遇到这个错误:

terminate called after throwing an instance of 'std::system_error' 
what():
Resource temporarily unavailable
Aborted 

这是将 tfrecord 转换为数据集的代码:

filenames = ["balanced_t.tfrecords"]
dataset = tf.contrib.data.TFRecordDataset(filenames)
def parser(record):
keys_to_features = {
    "mhot_label_raw": tf.FixedLenFeature((), tf.string, 
default_value=""),
    "mel_spec_raw": tf.FixedLenFeature((), tf.string, 
default_value=""),
}
parsed = tf.parse_single_example(record, keys_to_features)

mel_spec1d = tf.decode_raw(parsed['mel_spec_raw'], tf.float64)
# label = tf.cast(parsed["label"], tf.string)
mhot_label = tf.decode_raw(parsed['mhot_label_raw'], tf.float64)
mel_spec = tf.reshape(mel_spec1d, [96, 64])
return {"mel_data": mel_spec}, mhot_label
dataset = dataset.map(parser)
dataset = dataset.batch(batch_size)
dataset = dataset.repeat(3)
iterator = dataset.make_one_shot_iterator()

这是输入管道:

while True:
        try:
           (features, labels) = sess.run(iterator.get_next())
        except tf.errors.OutOfRangeError:
           print("end of training dataset")

在我的代码中插入一些打印消息后,我发现以下行导致此错误:

(features, labels) = sess.run(iterator.get_next())

但是,我无法解决它


您的代码存在(微妙的)内存泄漏,因此该进程可能会耗尽内存并被终止。问题是调用iterator.get_next()在每次循环迭代中都会向 TensorFlow 图中添加一个新节点,这最终会消耗大量内存。

要阻止内存泄漏,请重写您的while循环如下:

# Call `get_next()` once outside the loop to create the TensorFlow operations once.
next_element = iterator.get_next()

while True:
    try:
        (features, labels) = sess.run(next_element)
    except tf.errors.OutOfRangeError:
        print("end of training dataset")
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

iterator.get_next() 导致在抛出 'std::system_error 实例后调用终止 的相关文章

随机推荐