使用大型语言模型进行知识增强的复杂问题解决:综述

发表
Ningyu ZhangNingyu Zhang 提交
作者: Da Zheng, Lun Du, Junwei Su, Yuchen Tian, Yuqi Zhu, Jintian Zhang, Lanning Wei, Ningyu Zhang, Huajun Chen

摘要

问题解决一直是人类在众多领域进步的根本驱动力。随着人工智能的发展,大型语言模型(LLMs)已成为强大的工具,能够解决跨越不同领域的复杂问题。与传统的计算系统不同,LLMs结合了原始计算能力和对人类推理的近似,使其能够生成解决方案、进行推断,甚至利用外部计算工具。然而,将LLMs应用于现实世界的问题解决带来了重大挑战,包括多步骤推理、领域知识整合和结果验证。本调查探讨了LLMs在复杂问题解决中的能力和局限性,考察了包括思维链(CoT)推理、知识增强以及各种基于LLM和基于工具的验证技术。此外,我们强调了在各种领域(如软件工程、数学推理和证明、数据分析和建模以及科学研究)中特定领域存在的挑战。本文还从多步骤推理、领域知识整合和结果验证的角度,进一步讨论了当前LLM解决方案的基本局限性以及基于LLM的复杂问题解决的未来方向。
查看 arXiv 页面查看 PDF

评论

Ningyu ZhangNingyu Zhang
论文提交者

本综述探讨了大语言模型在复杂问题解决中的能力和局限性,并研究了多种技术,包括思维链 (Chain-of-Thought, CoT) 推理、知识增强,以及各种基于大语言模型和基于工具的验证技术。