我有一个运行良好的 TF 模型,是用 Python 和 TFlearn 构建的。有没有办法在另一个系统上运行这个模型而不需要安装 Tensorflow?它已经经过预先训练,所以我只需要通过它运行数据即可。
我知道 tfcompile (在这里发帖 https://stackoverflow.com/questions/39514440/serve-tensorflow-model-without-installing-tensorflow),但设置起来似乎相当复杂。还有其他选择吗?
有没有办法在另一个系统上运行这个模型而不需要安装 Tensorflow?它已经经过预先训练,所以我只需要通过它运行数据即可。
Yes
训练完模型后。使用tf.python.tools.freeze_graph
and tf.python.tools.optimize_for_inference_lib
冻结并优化模型以在 Android 等其他设备上进行推理。
上面的输出将是
- 冻结图 protobuf 文件 (.pb)
- 优化的图 protobuf 文件 (.pb)
[这些函数会将模型的所有变量转换为常量运算并导出到 protobuf 文件]
使用优化的图 protobuf 文件并使用 Java 和其他 Tensorflow API 中可用的推理方法加载它。传递数据并获取输出。
[请注意,您没有安装完整的 Tensorflow,但您只需要推理库]
这里演示了一个简单的例子:
https://omid.al/posts/2017-02-20-Tutorial-Build-Your-First-Tensorflow-Android-App.html https://omid.al/posts/2017-02-20-Tutorial-Build-Your-First-Tensorflow-Android-App.html
它适用于 Android,但过程对于 Java 应该是相同的。
对于 C++ :
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)