⏶7
AbstentionBench:推理大型语言模型在无解问题上失败
发表
由
Mark Ibrahim 提交
作者: Polina Kirichenko, Mark Ibrahim, Kamalika Chaudhuri, Samuel J. Bell
摘要
为了使大语言模型 (LLMs) 能够在日常和高风险领域可靠地部署,知道何时不回答与正确回答同样重要。真实世界的用户查询可能规范不足、提问不清或根本上无法回答,这要求LLMs能够对不确定性进行推理并有选择地回避——即,拒绝给出确定性回答。然而,回避问题仍未得到充分研究,针对现代LLMs也缺乏系统的评估框架。在这项工作中,我们引入了AbstentionBench,这是一个大规模基准测试集,用于全面评估LLMs在20个不同数据集上的回避问题能力,这些数据集涵盖了答案未知、规范不足、错误前提、主观解释和过时信息等类型的问题。对20个前沿LLMs进行评估后发现,回避问题是一个尚未解决的问题,而且在这一问题上,模型规模的扩大作用不大。尽管最近的推理型LLMs在复杂问题解决方面取得了令人印象深刻的成果,但令人惊讶的是,我们发现推理微调会降低回避问题的能力(平均降低24%),即使是在推理模型明确训练过的数学和科学领域也是如此。我们发现,尽管精心设计的系统提示可以在实践中提高回避问题的能力,但这并不能解决模型在对不确定性进行推理方面的根本不足。我们发布AbstentionBench,旨在促进关于提升LLM可靠性的研究。
一个好的语言模型应该能够通过推理其知识的边界来说“我不知道”。我们的新工作 AbstentionBench 在一个可供他人构建的开放代码库中,仔细衡量了领先模型中这种被忽视的技能!

https://github.com/facebookresearch/AbstentionBench
我们发现前沿推理削弱了模型知道何时不回答的能力。