⏶1
超越情境学习:通过任务固有的属性指导原则,对齐大型语言模型的长篇生成
发表
由
Do Xuan Long 提交
作者:
Do Xuan Long, Duong Ngoc Yen, Do Xuan Trong, Luu Anh Tuan, Kenji Kawaguchi, Shafiq Joty,
Min-Yen Kan,
Nancy F. Chen

摘要
上下文学习(ICL)是预训练大型语言模型(LLM)一项重要但尚未完全理解的能力。它无需微调,仅通过少量示例(称为示范)即可大幅提升任务性能。尽管ICL在问答任务中表现出色,但在摘要等长文本生成任务中却往往表现不佳。在适当的现实假设下,我们通过实证和理论证明,仅靠ICL示范不足以教会LLM生成任务的语言和格式分布。我们主张显式地暴露任务分布,并假设通过提示(prompting)来定义这些分布能够提升模型性能。为此,我们提出了LongGuide,它能高效地生成两条并行的指导流,捕捉任务的语言和格式特性:(i) 度量指南(MGs),指导模型优化自评估的度量;以及 (ii) 输出约束指南(OCGs),在token和句子层面约束生成。LongGuide自动选择最佳指南组合,在零样本和少样本设置下,均将强大的开源和闭源LLM的性能提升了5%以上。我们证明LongGuide具有通用性,可以被弱模型学习以增强强模型,并且能与自动提示优化器协同集成。
我们论文的讨论在这里!