⏶57
带有测试时扩散的深度研究员
发表
由
Asankhaya Sharma 提交

作者: Rujun Han, Yanfei Chen, Zoey CuiZhu, Lesly Miculicich, Guan Sun, Yuanjun Bi, Weiming Wen, Hui Wan, Chunfeng Wen, Solène Maître, George Lee, Vishy Tirumalashetty, Emily Xue, Zizhao Zhang, Salem Haykal, Burak Gokturk, Tomas Pfister, Chen-Yu Lee
摘要
由大型语言模型(LLM)驱动的深度研究智能体正在迅速发展;然而,当它们使用通用测试时缩放算法生成复杂、长篇研究报告时,其性能往往会遇到瓶颈。受人类研究迭代本质的启发(包括搜索、推理和修订的循环),我们提出了测试时扩散深度研究员(Test-Time Diffusion Deep Researcher, TTD-DR)。这个新颖的框架将研究报告的生成概念化为一个扩散过程。TTD-DR 以一份初步草稿启动此过程,这份可更新的骨架作为不断演进的基础来指导研究方向。然后,草稿通过一个“去噪”过程进行迭代细化,该过程由一个在每一步都整合外部信息的检索机制动态地提供信息。核心过程通过应用于智能体工作流程每个组件的自演化算法得到进一步增强,确保为扩散过程生成高质量的上下文。这种以草稿为中心的设计使得报告撰写过程更加及时和连贯,同时减少了迭代搜索过程中的信息损失。我们证明了我们的 TTD-DR 在需要密集搜索和多跳推理的各种基准测试中取得了最先进的成果,显著优于现有的深度研究智能体。
🎉 我们已在OptiLLM中实现了TTD-DR!
我们对这种方法印象深刻——受扩散启发的研究生成迭代细化方法非常出色。我们已成功实现了完整算法并进行了广泛测试。
实现亮点:
• 完整的差距分析和迭代去噪管道
• 集成Selenium进行网络搜索,实时获取信息
• 智能聚合多来源参考文献
• 适用于任何与OpenAI兼容的模型(GPT-4、Claude、Llama、Mistral等)
我们的测试结果:
• 对47个复杂研究查询进行了评估
• 生成的报告每份包含15-30+个真实网络来源
• 主题范围从投资分析到新兴技术领域
• 质量真正可与人类研究分析师媲美
我们学到了什么:
• 迭代细化确实有很大帮助——每个去噪步骤都显著提升了质量
• 差距分析对于识别初始草稿中缺失的内容至关重要
• 较小的模型(7B)在TTD-DR增强下也能产生出色的研究成果
• 该方法有效消除了当前事件上的幻觉现象
您可以尝试:
```
pip install optillm
```
代码:https://github.com/codelion/optillm/tree/main/optillm/plugins/deep_research
样本报告:https://github.com/codelion/optillm/tree/main/optillm/plugins/deep_research/sample_reports
感谢作者提出这种创新方法!将扩散概念应用于文本生成开辟了令人兴奋的可能性。我们希望能就该技术的进一步改进或应用进行合作。