⏶0
LLM-基础解释下的健全且完备的神经符号推理
发表
由
Bradley Allen 提交
作者: Bradley P. Allen, Prateek Chhikara, Thomas Macaulay Ferguson, Filip Ilievski, Paul Groth
摘要
大型语言模型(LLM)在自然语言理解和生成方面表现出令人印象深刻的能力,但它们在生成输出的逻辑一致性方面存在问题。我们如何利用LLM的广泛覆盖参数知识进行形式推理,尽管它们存在不一致性?我们提出了一种将LLM直接集成到次协调逻辑形式语义解释函数中的方法。我们通过使用从几个简短事实性基准创建的数据集评估该函数,提供了该方法可行性的实验证据。与先前的工作不同,我们的方法为神经符号推理提供了一个理论框架,该框架利用了LLM的知识,同时保留了底层逻辑的完备性和可靠性特性。

本文认为,与其让LLM根据经典逻辑的原则进行推理,不如让次协调逻辑以一种在保持其健全性和完整性的方式整合LLM,尽管LLM本身具有不一致性和不完整性。