SPAR:利用基于LLM的智能体增强学术搜索的学者论文检索

发表
XiaofengShiXiaofengShi 提交
作者: XiaofengShiXiaofeng Shi, Yuduo Li, Qian Kou, Longbin YuLongbin Yu, Jinxin Xie, Hua Zhou

摘要

大型语言模型(LLM)的最新进展为学术文献检索带来了新的机遇。然而,现有系统通常依赖僵化的管道,推理能力有限。我们引入了SPAR,一个多智能体框架,它结合了基于RefChain的查询分解和查询演化,以实现更灵活和有效的搜索。为了促进系统评估,我们还构建了SPARBench,这是一个具有专家注释相关性标签的具有挑战性的基准测试。实验结果表明,SPAR显著优于强大的基线,在AutoScholar上比最佳基线提高了高达+56%的F1分数,在SPARBench上提高了+23%的F1分数。SPAR和SPARBench共同为推进学术检索研究提供了一个可扩展、可解释、高性能的基础。代码和数据将在:https://github.com/xiaofengShi/SPAR 上提供。
查看 arXiv 页面查看 PDF

评论

XiaofengShiXiaofengShi
论文作者
论文提交者

大型语言模型(LLM)的最新进展为学术文献检索开辟了新的机遇。然而,现有系统通常依赖固定的流程,并表现出有限的推理能力。我们引入了SPAR,一个多智能体框架,它结合了基于RefChain的查询分解和查询演化,以实现更灵活和高效的搜索。为了促进系统评估,我们还构建了SPARBench,这是一个具有专家标注相关性标签的挑战性基准。实验结果表明,SPAR显著优于强大的基线,在AutoScholar上比表现最佳的基线F1分数提高了56%,在SPARBench上提高了23%。总之,SPAR和SPARBench为推进学术检索研究提供了可扩展、可解释且高性能的基础。代码和数据将在此处提供:https://github.com/xiaofengShi/SPAR