反蒸馏采样

04月17日发表
04月18日由 Avi SchwarzschildAvi Schwarzschild 提交
作者: Yash SavaniYash Savani, Asher Trockman, Zhili Feng, Avi Schwarzschild, Alex RobeyAlexander Robey, Marc Finzi, J. Zico Kolter

摘要

生成扩展推理轨迹的前沿模型会无意中产生丰富的 token 序列,这有助于模型蒸馏。意识到这种漏洞,模型所有者可能会寻求在不影响模型性能的情况下限制蒸馏效果的采样策略。反蒸馏采样正是提供了这种能力。通过策略性地修改模型的下一个 token 概率分布,反蒸馏采样会毒化推理轨迹,使其对于蒸馏的有效性显著降低,同时保留模型的实际效用。更多详情,请访问 https://antidistillation.com
查看 arXiv 页面查看 PDF

评论

Avi SchwarzschildAvi Schwarzschild
论文提交者

antidistillation.com

wangshuaiwangshuai

非常好的论文!!

读完之后,我有一个问题。

公式 6 的定义的潜在直觉是什么? 在我看来,反蒸馏旨在最大化公式 5 中的 delta 项或其在公式 11 中的最终简单形式。 但是我不理解 delta 项和公式 6 之间的关系。 如果您能提供更深入的解释,我将不胜感激。 谢谢! :D

Yash SavaniYash Savani
论文作者

谢谢! 在公式 6 中,我们只是简单地获取教师的 softmax logits,并朝最能毒害学生的方向轻推它们。 vanilla 项 (1/τ) · log p_T 使教师偏好的 tokens 保持可能性,而添加的 λ·Δ 项会精确地提高那些微调更新将增加学生损失的 tokens 的权重。