有哪些方法可以更好地控制 BERT 输出?在多标签文本分类任务中增加/减少某些词的相关性

问题描述

我想更好地了解如何更好地控制基于 BERT 的语言模型的分类能力,该模型针对多标签文本分类任务(或任何其他 LM 架构)进行了微调。

我的基本用例是能够增加或减少输入中包含的某些词与已经训练和微调的模型的相关性。

例如,假设在微调过程中对于某些特定标签的训练数据样本太少。然后我想在输入中包含某些单词的情况下对该标签的输入进行分类

我想在它的注意力机制中有一些调整方法,但我仍然不知道应该做什么和在哪里做。

解决方法

暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!

如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。

小编邮箱:dio#foxmail.com (将#修改为@)

相关问答

Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其...
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。...
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbc...