可靠且负责任的基础模型:综合综述

发表
Jinqi LuoJinqi Luo 提交
作者: Xinyu Yang, Junlin Han, Rishi Bommasani, Jinqi Luo, Wenjie Qu, Wangchunshu Zhou, Adel Bibi, Xiyao Wang, Jaehong Yoon, Elias Stengel-Eskin, Shengbang Tong, Lingfeng Shen, Rafael Rafailov, Runjia Li, Zhaoyang Wang, Yiyang Zhou, Chenhang Cui, Yu Wang, Wenhao Zheng, Huichi Zhou, Jindong Gu, Zhaorun Chen, Peng XiaPeng Xia, Tony Lee, Thomas Zollo, Vikash Sehwag, Jixuan Leng, Jiuhai Chen, Yuxin Wen, Huan Zhang, Zhun Deng, Linjun Zhang, Pavel Izmailov, Pang Wei Koh, Yulia Tsvetkov, Andrew Wilson, Jiaheng Zhang, James Zou, Cihang Xie, Hao Wang, Philip Torr, Julian McAuley, David Alvarez-Melis, Florian Tramèr, Kaidi Xu, Suman Jana, Chris Callison-Burch, Rene Vidal, Filippos Kokkinos, Mohit Bansal, Beidi Chen, Huaxiu Yao

摘要

AI 生成总结
包括 LLM、MLLM 和生成模型在内的基座模型需要可靠且负责任的开发,以解决偏见、安全、可解释性以及其他对于在多个领域进行可信部署至关重要的关键问题。
包括大语言模型 (LLM)、多模态大语言模型 (MLLM)、图像生成模型(即文生图模型和图像编辑模型)以及视频生成模型在内的基础模型已成为各领域(如法律、医学、教育、金融、科学等)的重要工具。随着这些模型在现实世界中的部署日益增多,确保其可靠性和责任感已成为学术界、工业界和政府的关键课题。本综述探讨了基础模型的可靠且负责任的开发。我们探讨了关键问题,包括偏差与公平性、安全与隐私、不确定性、可解释性和分布偏移。我们的研究还涵盖了模型局限性(如幻觉)以及对齐和人工智能生成内容 (AIGC) 检测等方法。针对每个领域,我们回顾了当前的研究现状并概述了具体的未来研究方向。此外,我们讨论了这些领域之间的交集,强调了它们的联系和共同挑战。我们希望本综述能促进基础模型的开发,使之不仅强大,而且合乎伦理、值得信赖、可靠且对社会负责。
查看 arXiv 页面查看 PDF

评论

Jinqi LuoJinqi Luo
论文提交者

该综述探讨了基础模型的可靠和负责任开发。