生成式人工智能第二阶段:测试时缩放驱动认知工程

发表
shijie xiashijie xia 提交
作者: shijie xiaShijie Xia, Yiwei Qin, Xuefeng Li, Yan Ma, Run-Ze FanRun-Ze Fan, Steffi Chern, Haoyang Zou, Fan Zhou, Xiangkun Hu, Jiahe Jin, Yanheng He, Yixin Ye, Yixiu Liu, Pengfei Liu

摘要

第一代大型语言模型——可以称之为生成式人工智能的“第一幕”(2020-2023年)——通过大规模参数和数据扩展取得了显著成功,但在知识延迟、浅层推理和受限的认知过程方面表现出根本性的局限。在这个时代,提示工程成为我们与人工智能交互的主要界面,通过自然语言实现对话级别的沟通。我们现在见证了“第二幕”(2024年至今)的出现,模型正在通过测试时扩展技术,从知识检索系统(在潜在空间中)过渡到思维构建引擎。这种新范式通过基于语言的思维,与人工智能建立了心智层面的连接。在本文中,我们阐明了认知工程的概念基础,并解释了为什么此时此刻对其发展至关重要。我们通过全面的教程和优化的实现,系统地分解了这些先进方法,普及认知工程的访问,并使每位从业者都能参与到人工智能的第二幕中。我们在 GitHub 仓库中提供了一个定期更新的关于测试时扩展的论文集:https://github.com/GAIR-NLP/cognition-engineering
查看 arXiv 页面查看 PDF

评论

shijie xiashijie xia
论文作者
论文提交者

本文全面介绍了生成式人工智能发展的第二幕的特点、技术方法、应用前景和未来方向,为不同的受众提供了宝贵的见解:

👩‍🔬 作为一名人工智能研究员,您是否正在寻找新的研究方向来突破当前大型语言模型的瓶颈?

💻 作为一名人工智能应用工程师,您是否需要基于经验的实践教程,以便在您的特定用例中实施测试时缩放 (Test-time Scaling)?

🎓 作为一名学生或人工智能新手,您是否正在寻找一个系统的框架来理解“认知工程”和“测试时缩放”,并附带适合初学者的代码教程? 面对大量的 RL 缩放训练技术,您如何有效地组织它们?

👩‍🏫 作为一名教育工作者,您是否需要结构良好的教学资源来向您的学生解释“测试时缩放”的概念?

shijie xiashijie xia
论文作者
论文提交者

本文提供了重要的系统资源:

✨ 一个全面的工作流程图,用于在各个领域应用测试时缩放,并提供涵盖数学、代码、多模态、代理、具身人工智能、安全、检索增强生成和评估的实际示例。

🚀 详细概述了提高测试时缩放效率的方法,涵盖并行采样、树搜索、多轮校正和长 CoT 等技术。

🧩 关于利用强化学习解锁长 CoT 能力的实践指导,包括代码教程、实施总结和解决常见训练挑战的策略。

📚 汇集了各个领域的长 CoT 资源的宝贵汇编。

🔭 持续跟踪测试时缩放的前沿和新兴研究进展。