问题描述
在许多不同的深度学习架构中查看非最大抑制代码,我注意到当使用自动混合精度(keras,pytorch)时,似乎这些都是在float32中计算的。如果我们将NMS用于对象检测器(例如YOLO)中的盒子,则输入是像素坐标,因此我认为在这些计算中使用半精度应该是完全合法的(尤其是如果这些仅用于检测阶段,并且我们使用没有渐变)。有人发现您确实需要使用float32吗?
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)