Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
参数无效--model_config_file_poll_wait_seconds
我正在尝试使用以下两个选项启动tensorflow serving 如文档中所示 docker run t rm p 8501 8501 v pwd models models tensorflow serving model config
tensorflowserving
张量流服务错误:参数无效:JSON 对象:没有命名输入
我正在尝试使用 Amazon Sagemaker 训练模型 并且希望使用 Tensorflow 服务来为其提供服务 为了实现这一目标 我将模型下载到 Tensorflow 服务 docker 并尝试从那里提供服务 Sagemaker 的训练
python27
tensorflow
tensorflowserving
amazonsagemaker
Tensorflow 中的自定义资源
由于某些原因 我需要为 Tensorflow 实现自定义资源 我试图从查找表实现中获得灵感 如果我理解得好的话 我需要实现3个TF操作 创建我的资源 资源的初始化 例如 在查找表的情况下填充哈希表 执行查找 查找 查询步骤 为了促进实施 我
c
tensorflow
tensorflowserving
Op 类型未在二进制中注册“SentencepieceEncodeSparse”
我部署了一个模型 该模型使用 tfhub 模型来使用 docker 进行张量流服务 这是我的模型中包含的 tfhub 模型 https tfhub dev google universal sentence encoder multilin
tensorflowserving
在 OSX 上使用 Docker 时出现 Tensorflow Serving 编译错误
我尝试使用 Docker 在 OSX El Capitan 上安装 TensorFlow 服务 但始终遇到错误 这是我正在遵循的教程 https tensorflow github io serving docker html https
tensorflow
tensorflowserving
如何使用张量流服务使张量流集线器嵌入可服务?
我正在尝试使用来自tensorflow hub的嵌入模块作为可服务 我是张量流新手 目前 我正在使用通用句子编码器 https tfhub dev google universal sentence encoder 1嵌入作为将句子转换为嵌
tensorflow
tensorflowserving
wordembedding
导入错误:没有名为 cloud.ml 的模块
我正在尝试按照说明在张量流中使用本地预测 如下所述here https cloud google com sdk gcloud reference ml engine local predict 运行命令gcloud ml engine l
python
tensorflow
gcloud
tensorflowserving
googlecloudml
如何冻结设备特定的已保存模型?
我需要冻结保存的模型以供服务 但某些保存的模型是特定于设备的 如何解决此问题 with tf Session config tf ConfigProto allow soft placement True as sess sess run
tensorflow
tensorflowserving
张量流将预测作为 b64 输出顶部结果
我有一个 Keras 模型 我将其转换为张量流服务模型 我可以成功地将预训练的 keras 模型转换为采用 b64 输入 预处理该输入并将其提供给我的模型 我的问题是我不知道如何获取我得到的预测数据 这是巨大的 并且只导出最高结果 我正在进
python
tensorflow
Prediction
Predict
tensorflowserving
在 Keras IMDB 示例中使用字符串作为输入
我正在看Keras IMDB 电影评论情感分类示例 https keras io datasets imdb movie reviews sentiment classification 以及github上对应的模型 https githu
tensorflow
machinelearning
NLP
Keras
tensorflowserving
在 Java 中加载 sklearn 模型。在 python 中使用 DNNClassifier 创建的模型
目标是在 Java 中打开在 python 中创建 训练的模型tensorflow contrib learn learn DNNClassifier 目前主要问题是知道在会话运行器方法上在 java 中给出的 张量 的名称 我在 pyth
Java
tensorflow
tensorflowserving
sklearnpandas
构建重新训练的初始 SavedModel 后清空变量文件夹
我正在尝试导出经过重新训练的初始模型 我读过这个几乎类似的问题here https stackoverflow com questions 43001719 deploy retrained inception savedmodel to
tensorflow
tensorflowserving
无法通过任何方式将 .h5 模型转换为 ONNX 进行推理
我在 h5 中构建了一个自定义模型Matterport Mask RCNN 实现 https github com matterport Mask RCNN 我成功地保存了完整的模型 而不是单独使用的权重model keras model
tensorflow
Keras
keraslayer
tensorflowserving
ONNX
如何创建具有动态“zero_state”的dynamic_rnn(推理失败)
我一直在使用 dynamic rnn 来创建模型 该模型基于 80 个时间周期信号 我想在每次运行之前将 initial state 归零 因此我设置了以下代码片段来完成此操作 state cell L1 zero state self B
tensorflow
tensorflowserving
TensorFlow Serving:将图像传递给分类器
我在 Tensorflow Python tensorflow 1 9 0 和 tensorflow serving 1 9 0 中构建了一个简单的分类器 它将对象分类为 5 个类之一 现在 我想为该模型提供服务 我已经导出它并给它一个分类
python
tensorflow
tensorflowserving
将多个文件输入到 Tensorflow 数据集中
我有以下 input fn def input fn filenames batch size Create a dataset containing the text lines dataset tf data TextLineDatas
tensorflow
tensorflowserving
tensorflowdatasets
tensorflowestimator
Java Tensorflow + Keras 等效的 model.predict()
在 python 中 你可以简单地将 numpy 数组传递给predict 从您的模型中获得预测 使用 Java 与 a 的等效项是什么SavedModelBundle Python model tf keras models Sequen
Java
tensorflow
Keras
tensorflowserving
张量流服务
有谁知道如何创建用于张量流服务的 C 客户端 我的张量流服务安装 我使用张量流服务 dockerfile 安装了张量流服务 然后在容器内执行了以下操作 pip install tensorflow pip install tensorflo
c
python
client
gRPC
tensorflowserving
将图形原型 (pb/pbtxt) 转换为 SavedModel 以在 TensorFlow Serving 或 Cloud ML Engine 中使用
我一直在关注TensorFlow 诗人 2 https codelabs developers google com codelabs tensorflow for poets 2我在我训练过的模型上进行了代码实验室 并创建了一个带有嵌入权
tensorflow
tensorflowserving
googlecloudml
TensorFlow v2:替换 tf.contrib.predictor.from_saved_model
到目前为止 我正在使用tf contrib predictor from saved model加载一个SavedModel tf estimator模型类 然而 不幸的是这个函数在 TensorFlow v2 中被删除了 到目前为止 在
python
tensorflow
tensorflowserving
tensorflow20
tensorflowestimator
1
2
»