问题描述
我看到我从 Keras/TensorFlow/PyTorch 等转换的模型出现意外行为。
在 MLModel
上调用简单的 init 时,没有预测或执行任何其他操作,某些模型上的应用内存会飙升至 2-3GB
。
self.myModel = MyModel(model: mlModel)
即使对于重量小于 1MB
的模型。
此外,使用 MLModelConfiguration
,更改 computeUnits
似乎会稍微改变内存使用情况,其中 .cpuOnly
通常需要最少的内存。
但看在上帝的份上,我不知道为什么会发生这种情况,这与我转换他们的方式有关吗?能引起具体层吗? 有没有人知道如何解决这个问题?
这是我们转换的模型: https://github.com/HasnainRaz/Fast-SRGAN
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)