CRINN:用于近似最近邻搜索的对比强化学习

发表
Xiaoya LiXiaoya Li 提交
作者: Xiaoya Li, Xiaofei Sun, Albert Wang, Chris Shum, Jiwei Li

摘要

近似最近邻搜索(ANNS)算法在近期的 AI 应用中变得日益关键,尤其是在检索增强生成(RAG)和基于智能体的 LLM 应用中。在本文中,我们提出了 CRINN,一种全新的 ANNS 算法范式。CRINN 将 ANNS 优化视为一个强化学习问题,其中执行速度作为奖励信号。这种方法能够在保持准确性约束的同时,自动生成速度越来越快的 ANNS 实现。我们的实验评估证明了 CRINN 在六个广泛使用的 NNS 基准数据集上的有效性。与业界顶尖的开源 ANNS 算法相比,CRINN 在其中三个数据集(GIST-960-Euclidean、MNIST-784-Euclidean 和 GloVe-25-angular)上取得了最佳性能,并在另外两个数据集(SIFT-128-Euclidean 和 GloVe-25-angular)上并列第一。CRINN 的成功意义远不止于 ANNS 优化:它验证了使用强化学习增强的 LLM 可以成为一种有效工具,用于自动化那些需要专业知识和大量手动优化的复杂算法优化过程。代码可在 https://github.com/deepreinforce-ai/CRINN 找到。
查看 arXiv 页面查看 PDF
CRINN:用于近似最近邻搜索的对比强化学习

评论

Xiaoya LiXiaoya Li
论文提交者

🌟 CRINN 亮点:

🔹 作为一个通用优化框架。CRINN 可以将任何现有的近似最近邻搜索算法作为起点。

🔹 它发现了自适应搜索、动态 EF 缩放、零开销多级预取等优化策略。

🔹 在欧几里得距离 (SIFT-128) 上训练,并很好地推广到角度距离数据集。