问题描述
我正在尝试解决在使用 Tensorflow 2 对象检测 API 训练模型执行推理时必须使用预处理的情况。从代码看,好像是:
-
在训练结束时创建的 SavedModel - 是的,需要预处理
-
使用
exporter_main_v2.py
导出的模型 - 不,预处理层被添加到模块中 -
使用
export_tflite_graph_tf2.py
导出的用于 tf lite 的模型 - 是的,需要预处理吗?
只是为了确认 tf lite 模型需要什么预处理?是吗:
-
应用训练中使用的预处理,这取决于模型。
-
然后应用量化缩放?
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)