问题描述
我正在尝试按照 here 提供的官方文档在 AI Platform 上使用 Tensorflow Serving 创建 HTTP 服务器。
我使用以下 Dockerfile 创建了一个简单的 docker 镜像并将其推送到 Artifacts Registry:
FROM tensorflow/serving:2.3.0-gpu
# copy the model file
ENV MODEL_NAME=my_model
copY my_model /models/my_model
但是,每次我尝试为模型创建版本时,Tensorflow 服务器都会启动,但版本创建失败并出现以下错误:
Error: model server never became ready. Please validate that your model file or container configuration are valid.
所以我的问题是:是否有建议/推荐的方式在 AI Plaform 上将 Tensorflow Serving 与自定义容器一起使用?
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)