卷入冲突:搜索增强大语言模型中矛盾来源的检测与解决

发表
Arie CattanArie Cattan 提交
作者: Arie Cattan, Alon Jacovi, Ori RamOri Ram, Jonathan Herzig, Roee Aharoni, Sasha Goldshtein, Eran Ofek, Idan Szpektor, Avi Caciularu

摘要

检索增强生成(RAG)是一种常用方法,用于为大型语言模型(LLM)提供相关和最新的信息。然而,检索到的来源往往包含相互冲突的信息,目前尚不清楚模型应如何处理此类差异。在这项工作中,我们首先提出了RAG中知识冲突类型的新颖分类法,以及每种类型所需的模型行为。然后,我们引入了 CONFLICTS,这是一个高质量的基准,其中包含在现实RAG设置中专家对冲突类型的注释。CONFLICTS 是第一个能够追踪模型如何处理各种知识冲突进展的基准。我们对该基准进行了大量实验,结果表明LLM在适当解决来源之间的冲突方面常常力不从心。虽然提示LLM明确推理检索到的文档中潜在的冲突显著提高了其响应的质量和适当性,但未来的研究仍有很大的改进空间。
查看 arXiv 页面查看 PDF

评论

Arie CattanArie Cattan
论文提交者

检索增强生成(RAG)是一种常用的方法,用于通过相关和最新信息来增强大型语言模型(LLM)。然而,检索到的来源常常包含冲突信息,且模型应如何处理这些差异仍不清楚。

在这项工作中,我们首先提出了一个关于 RAG 中知识冲突类型的新颖分类法,以及每种类型所需的模型行为。然后,我们引入了 CONFLICTS,这是一个高质量的基准数据集,在真实的 RAG 设置中对冲突类型进行了专家标注。CONFLICTS 是第一个能够跟踪模型如何处理各种知识冲突进展的基准数据集。我们在此基准数据集上进行了广泛的实验,结果表明,LLM 常常难以适当解决来源之间的冲突。虽然通过提示 LLM 明确推理检索文档中的潜在冲突显著提高了其响应的质量和适当性,但未来的研究仍有巨大的改进空间。