如何使用 Tensorflow Serving 在 AI Plaform 上创建 HTTP 服务器

问题描述

我正在尝试按照 here 提供的官方文档在 AI Platform 上使用 Tensorflow Serving 创建 HTTP 服务器。

我使用以下 Dockerfile 创建了一个简单的 docker 镜像并将其推送到 Artifacts Registry:

FROM tensorflow/serving:2.3.0-gpu

# copy the model file
ENV MODEL_NAME=my_model
copY my_model /models/my_model

但是,每次我尝试为模型创建版本时,Tensorflow 服务器都会启动,但版本创建失败并出现以下错误

Error: model server never became ready. Please validate that your model file or container configuration are valid.

所以我的问题是:是否有建议/推荐的方式在 AI Plaform 上将 Tensorflow Serving 与自定义容器一起使用?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)