为什么HuggingFace的Bart摘要器会复制给定的输入文本?

2024-04-29 15:42:58 发布

您现在位置:Python中文网/ 问答频道 /正文

我试图使用Bart的预训练摘要管道对输入文本进行摘要。但是,我注意到生成的摘要与我输入模型进行摘要的文本完全相同。我还尝试在文本摘要对(人工生成的摘要)上微调模型,但对于新的输入文本,也会生成与输出相同的输入文本

我打算将我的总结作为给定输入文本的要点。我可以使用什么方法来解决此问题?还有,有没有其他模型可以更好地生成摘要


Tags: 方法模型文本管道人工要点微调bart
1条回答
网友
1楼 · 发布于 2024-04-29 15:42:58

我对facebook上的bart_基本模型也有同样的问题。我尝试了其他几个模型,我发现Sam Shleifer的DistilBART模型在总结新闻文章方面做得非常好。 如果您想尝试一下:

model = BartForConditionalGeneration.from_pretrained("sshleifer/distilbart-xsum-6-6")
tokenizer = BartTokenizer.from_pretrained("sshleifer/distilbart-xsum-6-6")

相关问题 更多 >