软思维:在连续概念空间中释放 LLM 的推理潜力

发表
Xin Eric WangXin Eric Wang 提交
作者: zhenzhangZhen Zhang, Xuehai He, Weixiang Yan, Ao Shen, Chenyang Zhao, Shuohang Wang, Yelong Shen, Xin Eric WangXin Eric Wang

摘要

人类认知通常涉及对抽象、流动概念的思考,而不是严格使用离散的语言标记。然而,当前的推理模型受限于人类语言的边界内推理,处理表示语义空间中固定点的离散标记嵌入。这种离散约束限制了这类推理模型的表达能力和上限潜力,常常导致推理路径的探索不完整,因为标准的思维链(CoT)方法依赖于每一步采样一个标记。在这项工作中,我们引入了 Soft Thinking,一种无需训练的方法,它通过在连续概念空间中生成软性、抽象的概念标记来模拟类人的“软性”推理。这些概念标记是通过标记嵌入的概率加权混合创建的,形成了连续的概念空间,从而实现了平滑的过渡和超越传统离散边界的更丰富的表示。本质上,每个生成的概念标记封装了来自相关离散标记的多个含义,隐含地探索各种推理路径,有效地收敛到正确答案。在各种数学和编码基准上的实证评估一致表明 Soft Thinking 的有效性和效率,与标准 CoT 相比,pass@1 准确率提高了最多 2.48 个百分点,同时标记使用量减少了最多 22.4%。定性分析进一步揭示 Soft Thinking 的输出仍然高度可解释和可读,突显了 Soft Thinking 打破基于离散语言推理固有瓶颈的潜力。代码可在 https://github.com/eric-ai-lab/Soft-Thinking 获取。
查看 arXiv 页面查看 PDF

评论

Xin Eric WangXin Eric Wang
论文作者
论文提交者

网站:https://soft-thinking.github.io/

代码:https://github.com/eric-ai-lab/Soft-Thinking