Keras自定义损失功能

问题描述

我想实现以下自定义损失函数,并将参数x作为最后一层的输出。到目前为止,我将此功能实现为Lambda层,再加上keras mae丢失,但我不再想要了

def GMM_UNC2(self,x):
    tmp = self.create_mr(x) # get mr series
    mr  = k.sum(tmp,axis=1) # sum over time
    tmp = k.square((1/self.T_i) * mr)
    tmp = k.dot(tmp,k.transpose(self.T_i))
    tmp = (1/(self.T * self.N)) * tmp

    f   = self.create_factor(x) # get factor
    std = k.std(f)
    mu  = k.mean(f)
    tmp = tmp + std/mu 

    def loss(y_true,y_pred=tmp):
        return k.abs(y_true-y_pred)

    return loss

self.y_true = np.zeros((1,1))
self.sdf_net = Model(inputs=[self.in_ma,self.in_mi,self.in_re,self.in_si],outputs=w)
self.sdf_net.compile(optimizer=self.optimizer,loss=self.GMM_UNC2(w))
self.sdf_net.fit([self.macro,self.micro,self.R,self.R_sign],self.y_true,epochs=epochs,verbose=1)

代码实际上可以运行,但是实际上并没有使用tmp作为损失的输入(我将其乘以某个数字,但是损失保持不变)

我在做什么错了?

解决方法

您是否想对预测应用GMM_UNC2函数还是不清楚,或者仅应用一次来建立损失。如果是第一种选择,那么所有这些代码都应该放在损失中,然后像{p>

y_pred

如果是第二个选项,通常,将对象作为默认值传递给Python函数定义不是一个好主意,因为可以在函数定义中对其进行更改。另外,您假设损失的第二个参数的名称为def GMM_UNC2(self): def loss(y_true,y_pred): tmp = self.create_mr(y_pred) # get mr series mr = k.sum(tmp,axis=1) # sum over time tmp = k.square((1/self.T_i) * mr) tmp = k.dot(tmp,k.transpose(self.T_i)) tmp = (1/(self.T * self.N)) * tmp f = self.create_factor(x) # get factor std = k.std(f) mu = k.mean(f) tmp = tmp + std/mu return k.abs(y_true-y_pred) return loss ,但是当被调用时,它不带名称就作为位置参数。总之,您可以尝试在损失内部使用显式比较,例如

y_pred

如果您喜欢忽略预测,并强行使用 def loss(y_true,y_pred): if y_pred is None: y_pred = tmp return k.abs(y_true - y_pred) ,则可以忽略损失的tmp参数,而仅使用y_pred,就像

tmp