奇妙的(小型)检索器及其训练方法:mxbai-edge-colbert-v0 技术报告

发表
Benjamin ClaviéBenjamin Clavié 提交
作者: Rikiya TakehiRikiya Takehi, Benjamin ClaviéBenjamin Clavié, Sean Lee, Aamir Shakir

摘要

AI 生成总结
mxbai-edge-colbert-v0 模型(具有 17M 和 32M 参数)在短文本和长上下文基准上表现出比 ColBERTv2 更优越的检索性能。
在这项工作中,我们推出了 mxbai-edge-colbert-v0 模型,具有两种不同的参数数量:17M 和 32M。作为我们研究的一部分,我们进行了大量实验来改进检索和后期交互模型,我们打算将它们蒸馏到更小的模型中作为概念验证。我们的最终目标是支持各种规模的检索,从存在于云中的大规模检索到可以在任何设备本地运行的模型。mxbai-edge-colbert-v0 是一个我们希望成为未来所有实验的坚实基础骨干的模型,代表了长系列小型概念验证的第一个版本。作为 mxbai-edge-colbert-v0 开发的一部分,我们进行了多次消融研究,并报告了结果。在下游性能方面,mxbai-edge-colbert-v0 是一个特别强大的小型模型,在常见的短文本基准(BEIR)上优于 ColBERTv2,并在长上下文任务上实现了重大进步,具有前所未有的效率。
查看 arXiv 页面查看 PDF

评论

Benjamin ClaviéBenjamin Clavié
论文作者
论文提交者

我们最新的技术报告:一篇关于如何从语言模型预训练权重技术化一个模型,使其成为一个能够胜任的单向量嵌入,最终成为一个仅用 0.017B 参数就能在长上下文检索任务上超越 8B 参数模型的 ColBERT 模型。