问题描述
我正在使用自定义函数训练 Keras 模型,我之前已经成功测试过该函数。最近,我用一个新的数据集训练它,得到了一个奇怪的结果:模型训练得很好,但 val_loss
给出了 nan
。
这是损失:
def Loss(y_true,y_pred):
y_pred = relu(y_pred)
z = k.maximum(y_true,y_pred)
y_pred_negativo = Lambda(lambda x: -x)(y_pred)
w = k.abs(add([y_true,y_pred_negativo]))
if k.sum(z) == 0:
error = 0
elif k.sum(y_true) == 0 and k.sum(z) != 0:
error = 100
elif k.sum(y_true) == 0 and k.sum(z) == 0:
error = 0
else:
error = (k.sum(w)/k.sum(z))*100
return error
我尝试了很多东西:
有人告诉我that这可能是 CUDA 安装的问题,但我不确定。
知道问题出在哪里或如何诊断吗?
解决方法
问题原来是除以零,但它发生的原因有点棘手。正如你所看到的,上面的定义有一些应该排除除以零的条件。然而,它们是为处理 NumPy 对象而不是张量而编写的,张量是由 Keras 方法传递的对象。因此,它们从未发生过,而且每零除法经常发生。
为了修复它,我不得不根据 Keras 条件重写损失 - 提醒,避免将纯 Keras 与 tf.keras 混合 - 就像我发布的 here 一样。欢迎任何进一步的评论!