推理的几何学:表示空间中的流动逻辑

发表
YUFA ZHOUYUFA ZHOU 提交
作者: YUFA ZHOUYufa Zhou, Yixiao Wang, Xunjian Yin, Shuyan Zhou, Anru R. Zhang

摘要

我们研究大型语言模型(LLMs)如何通过它们的表示空间进行“思考”。我们提出了一个新颖的几何框架,将LLM的推理建模为流——嵌入轨迹沿着逻辑方向演变。通过使用相同的自然推导命题和多样的语义载体,我们解耦了逻辑结构和语义,使我们能够测试LLM是否在表面形式之外内化了逻辑。这种视角将推理与诸如位置、速度和曲率等几何量联系起来,从而能够在表示和概念空间中进行形式化分析。我们的理论确立了:(1)LLM推理对应于表示空间中的平滑流,以及(2)逻辑语句充当这些流速度的局部控制器。我们利用学习到的表示代理,设计了受控实验来可视化和量化推理流,为我们的理论框架提供了实证验证。我们的工作为研究推理现象提供了概念基础和实用工具,为LLM的行为提供了新的可解释性和形式化分析视角。
查看 arXiv 页面查看 PDF

评论

YUFA ZHOUYUFA ZHOU
论文作者
论文提交者

🧩 推理的几何学:表示空间中的流动逻辑

🧠 大型语言模型是如何“思考”的?
我们引入了一个几何框架,在该框架中,推理被视为表示空间中的平滑流动。思维链的每一步都描绘了一条轨迹,其速度和曲率由逻辑结构而非表面语义决定。

我们使用一个多语言、多主题的形式逻辑数据集,证明了嵌入的位置编码语义,而速度和曲率则揭示了逻辑不变的推理动力学——这表明大型语言模型能够从数据中涌现地内化逻辑。

该框架连接了形式逻辑、几何学和可解释性,为分析大型模型内部的推理流程提供了量化工具。

📄 论文:https://arxiv.org/abs/2510.09782
💻 代码:https://github.com/MasterZhou1/Reasoning-Flow

AI #LLM #Interpretability #Geometry #Reasoning