独立于 LLM 的自适应 RAG:让问题自己说话

发表
Viktor MoskvoretskiiViktor Moskvoretskii 提交
作者: Maria Marina, IvanovNikolay Ivanov, Sergey Pletenev, Mikhail SalnikovMikhail Salnikov, Daria Galimzianova, Nikita Krayko, VasilyVasily Konovalov, Alexander Panchenko, Viktor MoskvoretskiiViktor Moskvoretskii

摘要

大型语言模型~(LLMs) 容易产生幻觉,而检索增强生成 (RAG) 有助于缓解这一问题,但这需要高昂的计算成本,并存在错误信息的风险。自适应检索旨在仅在必要时进行检索,但现有方法依赖于基于 LLM 的不确定性估计,这仍然效率低下且不切实际。在本研究中,我们引入了基于外部信息的轻量级独立于 LLM 的自适应检索方法。我们研究了 27 种特征,分为 7 组,以及它们的混合组合。我们在 6 个 QA 数据集上评估了这些方法,评估了 QA 性能和效率。结果表明,我们的方法与复杂的基于 LLM 的方法性能相当,同时显著提高了效率,这证明了外部信息在自适应检索中的潜力。
查看 arXiv 页面查看 PDF

评论

Viktor MoskvoretskiiViktor Moskvoretskii
论文作者
论文提交者

大型语言模型(LLMs)容易产生幻觉,检索增强生成(RAG)有助于缓解这一问题,但计算成本高昂,同时存在错误信息的风险。自适应检索旨在仅在必要时进行检索,但现有方法依赖于基于LLM的不确定性估计,这仍然效率低下且不切实际。在本研究中,我们引入了基于外部信息的轻量级LLM独立自适应检索方法。我们研究了组织成7组的27个特征及其混合组合。我们在6个问答数据集上评估了这些方法,评估了问答性能和效率。结果表明,我们的方法在性能上与复杂的基于LLM的方法相当,同时实现了显著的效率提升,展示了外部信息在自适应检索中的潜力。