TensorRT Engine File不能与tritonserver进行推理,但不能与python一起使用

问题描述

我的环境:

  • centos 7
  • nvidia 440.36
  • CUDA 10.2
  • cudnn 8
  • TensorRT-7.1.3.4
  • CUDA 10.2
  • nvcr.io/nvidia/tritonserver 20.09-py3(docker) 我的模型使用tf1进行训练,将常数值冻结到图形中并在Frozen.pb中序列化。但是我的模型将使用trtserver.triton进行推断,其中包含tensorflow2.3。我已经使用cuda10.2,cudnn8,tensorrt.tensorflow的2.4版本从源代码编译了tensorflow。 .0。我使用convert-to-uff工具将冻结的文件转换为model.uff,并使用TensorRT(python)读取文件并将反序列化的引擎文件转换为model.plan。我可以对引擎文件使用python推理,但不能使用与triton.My代码enter image description here

config.pbtxt: config.pbtxt

uff转换日志: uff-convert log

tritonserver log

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)