潜在推理综述

发表
Rui-Jie ZhuRui-Jie Zhu 提交
作者: Rui-Jie ZhuRui-Jie Zhu, Tianhao Peng, Tianhao Cheng, Xingwei Qu, HuangJinfa Huang, Dawei Zhu, Hao Wang, Kaiwen Xue, Xuanliang Zhang, shYong Shan, Tianle Cai, Taylor Kergan, Assel Kembay, Andrew Smith, Chenghua Lin, Binh Nguyen, Yuqi Pan, Yuhong Chou, Zefan Cai, Zhenhe Wu, Yongchi Zhao, Tianyu Liu, Jian Yang, Wangchunshu Zhou, Chujie ZhengChujie Zheng, Chongxuan Li, Yuyin Zhou, Zhoujun Li, Zhaoxiang Zhang, Jiaheng Liu, Ge Zhang, Wenhao Huang, JasonJason Eshraghian

摘要

大型语言模型(LLM)展示了令人印象深刻的推理能力,尤其是在显式思维链(CoT)推理的引导下,通过将中间步骤语言化来达到这一效果。虽然CoT提升了解释性和准确性,但其对自然语言推理的依赖限制了模型的表达带宽。潜在推理通过在模型的连续隐藏状态中完全执行多步推理来解决这一瓶颈,从而消除了标记级监督。为了推进潜在推理研究,本综述对潜在推理这一新兴领域进行了全面概述。我们首先探讨神经网络层作为推理计算基础的核心作用,强调分层表示如何支持复杂的转换。接下来,我们探索了各种潜在推理方法,包括基于激活的循环、隐藏状态传播以及压缩或内化显式推理轨迹的微调策略。最后,我们讨论了先进的范例,例如通过掩码扩散模型实现的无限深度潜在推理,它能够实现全局一致且可逆的推理过程。通过整合这些观点,我们旨在阐明潜在推理的概念格局,并为LLM认知前沿的研究规划未来方向。相关的GitHub仓库收录了最新的论文和代码,可在以下链接获取:https://github.com/multimodal-art-projection/LatentCoT-Horizon/
查看 arXiv 页面查看 PDF

评论

Rui-Jie ZhuRui-Jie Zhu
论文作者
论文提交者

我们都曾看到LLM通过“思维链”来“大声思考”,但如果它们能够不局限于语言进行推理呢?我们的论文探讨了模型如何在它们的连续隐藏状态中直接进行复杂的、多步的推理,从而释放巨大的表达潜力。在这项工作中,我们综合了快速增长的研究成果,创建了该领域第一个清晰的分类法。我们深入探讨了如何训练模型以“更深入地思考”(垂直循环)或“更长时间地思考”(水平循环),并探索了像文本扩散模型这样的未来范式如何实现全局一致的、无限步的细化。

截屏2025-07-08 下午6.28.56.png

Grant SingletonGrant Singleton

arXiv 对这篇论文的解读 👇 https://arxivexplained.com/papers/a-survey-on-latent-reasoning

HuangHuang
论文作者

我们的 Github 仓库:https://github.com/multimodal-art-projection/LatentCoT-Horizon