对使用 TF2 对象检测 API 创建的精简模型进行预处理

问题描述

我正在尝试解决在使用 Tensorflow 2 对象检测 API 训练模型执行推理时必须使用预处理的情况。从代码看,好像是:

  1. 在训练结束时创建的 SavedModel - 是的,需要预处理

  2. 使用 exporter_main_v2.py 导出的模型 - 不,预处理层被添加到模块中

  3. 使用 export_tflite_graph_tf2.py 导出的用于 tf lite 的模型 - 是的,需要预处理吗?

只是为了确认 tf lite 模型需要什么预处理?是吗:

  1. 应用训练中使用的预处理,这取决于模型。

  2. 然后应用量化缩放?

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)