微调SLM还是提示LLM?以生成低代码工作流为例

发表
Patrice BechardPatrice Bechard 提交
作者: Orlando Marquez Ayala, Patrice BechardPatrice Bechard, Emily Chen, Maggie Baird, Jingfei Chen

摘要

大型语言模型(LLM),例如 GPT-4o,可以在正确的提示下处理各种复杂的任务。随着每令牌成本的降低,为实际应用微调小型语言模型(SLM)的优势——更快的推理、更低的成本——可能不再明显。在这项工作中,我们提供了证据表明,对于需要结构化输出的特定领域任务,SLM 仍然具有质量优势。我们比较了微调 SLM 与通过提示 LLM 生成 JSON 格式的低代码工作流的任务。我们观察到,虽然良好的提示可以产生合理的结果,但微调平均能将质量提高 10%。我们还进行了系统的错误分析,以揭示模型的局限性。
查看 arXiv 页面查看 PDF

评论

Patrice BechardPatrice Bechard
论文作者
论文提交者

我们提供了证据表明,在像低代码工作流生成这样的领域特定任务中,微调后的SLM表现优于通过提示词使用的LLM。