问题描述
我想更好地了解如何更好地控制基于 BERT 的语言模型的分类能力,该模型针对多标签文本分类任务(或任何其他 LM 架构)进行了微调。
我的基本用例是能够增加或减少输入中包含的某些词与已经训练和微调的模型的相关性。
例如,假设在微调过程中对于某些特定标签的训练数据样本太少。然后我想在输入中包含某些单词的情况下对该标签的输入进行分类。
我想在它的注意力机制中有一些调整方法,但我仍然不知道应该做什么和在哪里做。
解决方法
暂无找到可以解决该程序问题的有效方法,小编努力寻找整理中!
如果你已经找到好的解决方法,欢迎将解决方案带上本链接一起发送给小编。
小编邮箱:dio#foxmail.com (将#修改为@)