不平衡数据的加权交叉熵损失函数

问题描述

我正在使用不平衡的时间序列数据集训练网络。根据他们的操作,数据中的某些间隔特别长于其他间隔。

  • X 可以是 20 条数据
  • Y 可以是 40 秒的数据
  • Z 可以是 10 秒的数据

我使用了 SigmoidFocalCrossEntropy,并意识到它降低了分类良好的示例的权重并专注于困难的示例。与分类良好的样本对应的损失值相比,被分类器错误分类的样本的损失值要高得多。但是,我想使用自己的加权交叉熵损失函数。

我正在尝试开发一个损失函数,其中每个窗口对梯度的贡献的权重与训练数据集中相应类的大小成反比。准确地说,表示Lii-th窗口上计算的多类交叉熵损失的分量,加权交叉熵函数L^W表示为:

enter image description here

其中 C = {X,Y,Z},y 是一个二元指标 如果 c 是与窗口关联的标签,则等于 1 i 和 0 否则,p 是窗口 i 属于给定模型预测的 c 类,并且 应用于损失的第 i 个分量的权重 mi 定义为:

        1                 if yi,X= 1
mi =    |X| / |Y|         if yi,Y= 1
        |X| / |Z|         if yi,Z= 1

我已经使用过这段代码,但不确定如何从这里对其进行编码

def cross_entropy(X,y):
    """
    X is the output from fully connected layer (num_examples x num_classes)
    y is labels (num_examples x 1)
        Note that y is not one-hot encoded vector. 
        It can be computed as y.argmax(axis=1) from one-hot encoded vectors of labels if required.
    """
    m = y.shape[0]
    p = softmax(X)
    
    log_likelihood = -np.log(p[range(m),y])
    loss = np.sum(log_likelihood) / m
    return loss

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)