F1 与 model.evaluate() 和 model.predict() 不同

问题描述

在比较 model.evaluate()model.predict() 结果时,我得到了一个非常奇怪的行为。正如您在屏幕截图中看到的,我得到 ~0.926 f1 以表示从 model.evaluate() 返回的精度和召回率,但对于 model.predict() 做出的预测,f1 低得多。任何想法怎么会发生?

screenshot of code

这只发生在对样本外数据集的评估中。对于训练期间用作验证数据的测试数据,model.evaluate()model.predict() 给出相同的 f1。

model.compile(optimizer='adam',loss='binary_crossentropy',metrics=['accuracy',tf.keras.metrics.Precision(),tf.keras.metrics.Recall()])

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)