通过内部表征的视角分析大型语言模型跨语言的知识边界认知

发表
chenghao xiaochenghao xiao 提交
作者: chenghao xiaoChenghao Xiao, Hou Pong Chan, Hao Zhang, Mahani Aljunied, Lidong Bing, Noura Al Moubayed, Yu Rong

摘要

虽然理解大型语言模型的知识边界对于防止幻觉至关重要,但关于大型语言模型知识边界的研究主要集中在英语上。在这项工作中,我们首次研究分析大型语言模型如何在不同语言中识别知识边界,通过探测它们在处理多种语言的已知和未知问题时的内部表示。我们的实证研究揭示了三个关键发现:1)大型语言模型对知识边界的感知被编码在不同语言的中间层到中上层。2)知识边界感知中的语言差异遵循线性结构,这促使我们提出一种无需训练的对齐方法,该方法可以有效地跨语言转移知识边界感知能力,从而有助于降低低资源语言中的幻觉风险;3)在双语问题对翻译上进行微调进一步增强了大型语言模型跨语言识别知识边界的能力。鉴于缺乏用于跨语言知识边界分析的标准测试平台,我们构建了一个多语言评估套件,其中包含三种代表性的知识边界数据类型。我们的代码和数据集在以下网址公开提供:https://github.com/DAMO-NLP-SG/LLM-Multilingual-Knowledge-Boundaries
查看 arXiv 页面查看 PDF

评论

chenghao xiaochenghao xiao
论文作者
论文提交者

我们提出了首个研究,通过探测大型语言模型在处理已知和未知多语言问题时的内部表征,来分析大型语言模型如何识别跨不同语言的知识边界。我们发现:

  • 知识边界感知被编码在大型语言模型的中层到中上层。

  • 跨语言知识边界呈现线性结构,允许免训练对齐。

  • 进一步的双语翻译 SFT 增强了跨语言的知识边界感知,包括那些未直接训练的语言。

我们还发布了 3 个高质量的语言学家验证的多语言知识边界评估数据集。