我已根据以下说明将张量流推理图转换为 tflite 模型文件(*.tflite)https://www.tensorflow.org/lite/convert https://www.tensorflow.org/lite/convert.
我在我的 GPU 服务器上测试了 tflite 模型,该服务器有 4 个 Nvidia TITAN GPU。我使用 tf.lite.Interpreter 加载并运行 tflite 模型文件。
它的工作原理与以前的张量流图一样,但问题是推理变得太慢。当我检查原因时,我发现tf.lite.Interpreter运行时GPU利用率仅为0%。
有什么方法可以在 GPU 支持下运行 tf.lite.Interpreter 吗?
https://github.com/tensorflow/tensorflow/issues/34536 https://github.com/tensorflow/tensorflow/issues/34536
CPU 对于 tflite 来说已经足够好了,尤其是多核。
nvidia GPU 可能没有针对 tflite 进行更新,tflite 适用于移动 GPU 平台。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)