问题描述
在比较 model.evaluate()
和 model.predict()
结果时,我得到了一个非常奇怪的行为。正如您在屏幕截图中看到的,我得到 ~0.926
f1 以表示从 model.evaluate()
返回的精度和召回率,但对于 model.predict()
做出的预测,f1 低得多。任何想法怎么会发生?
这只发生在对样本外数据集的评估中。对于训练期间用作验证数据的测试数据,model.evaluate()
和 model.predict()
给出相同的 f1。
model.compile(optimizer='adam',loss='binary_crossentropy',metrics=['accuracy',tf.keras.metrics.Precision(),tf.keras.metrics.Recall()])
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)