为什么 HuggingFace 的 Bart Summarizer 会复制给定的输入文本?

问题描述

我正在尝试使用 Bart 的预训练汇总管道来汇总输入文本。但是,我注意到生成摘要与我提供给模型进行摘要的文本完全相同。我还尝试在文本摘要对(人工生成摘要)上微调模型,但对于新的输入文本,也会生成输出相同的输入文本。

我希望我的摘要是给定输入文本的要点。我可以使用哪些方法解决这个问题?还有,有没有其他模型可能在生成摘要方面表现更好?

解决方法

我在使用 facebook 的 bart_base 模型时遇到了同样的问题。我尝试了其他几个模型,我发现 Sam Shleifer 的 DistilBART 模型在总结新闻文章方面做得非常好。 如果您想尝试一下:

model = BartForConditionalGeneration.from_pretrained("sshleifer/distilbart-xsum-6-6")
tokenizer = BartTokenizer.from_pretrained("sshleifer/distilbart-xsum-6-6")