⏶31
何时集成:识别用于稳定和快速 LLM 集成的令牌级点
发表
由
Heecheol Yun 提交
作者:
Heecheol Yun,
Kwangmin Ki, Junghyun Lee, Eunho Yang
摘要
AI 生成总结
SAFE 是一个用于大型语言模型的选择性集成框架,通过考虑分词不匹配和概率分布的共识来改进长文本生成,从而提高准确性和效率。大型语言模型 (LLM) 的集成已被视为一种有前景的方法,可以通过利用个体模型的互补优势来超越其性能。特别是,聚合模型生成下一个词的概率分布以选择下一个词已被证明在各种任务中非常有效。然而,尽管这种方法在生成短篇回答时取得了成功,但将其应用于长篇生成的研究仍然不足。在本文中,我们表明,在长篇生成中使用现有的集成方法需要仔细选择集成位置,因为在每个词处进行集成的标准做法通常会降低性能。我们确定了确定这些位置的两个关键因素:模型之间的词元化不匹配和它们在下一个词概率分布上的共识。基于此,我们提出了 SAFE (Stable And Fast LLM Ensembling),一个通过联合考虑这些因素来选择性集成的框架。为了进一步提高稳定性,我们引入了一种概率锐化策略,将分布在代表同一词的多个子词元上的概率合并到一个单一的代表性词元上。我们在包括 MATH500 和 BBH 在内的各种基准测试上进行的实验表明,SAFE 在准确性和效率方面均优于现有方法,即使集成少于 1% 的词元也能取得改进。
评论
论文作者
论文提交者
此评论已隐藏。