我有一个自定义 CNN 模型,我已将其转换为 .tflite 格式并将其部署在我的 Android 应用程序上。但是,我不知道如何在使用 TensorFlow lite 进行推理时进行批处理。
来自这个谷歌doc,看来你必须设置模型的输入格式。但是,本文档使用的是 Firebase API 的代码示例,我不打算使用它。
更具体:
我想一次推断多个 100x100x3 图像,因此输入大小为Nx100x100x3。
问题:
如何使用 TF lite 做到这一点?
您只需致电resizeInput
API(Java)或ResizeInputTensor
API(如果您使用的是 C++)。
例如,在 Java 中:
interpreter.resizeInput(tensor_index, [num_batch, 100, 100, 3]);
如果您在 TensorFlow lite 中的批处理有任何问题,请告诉我们。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)