⏶1
多语言LLM安全研究现状:从衡量语言鸿沟到弥合它
发表
由
Yong Zheng-Xin 提交

作者: Zheng-Xin Yong, Beyza Ermis, Marzieh Fadaee, Stephen H. Bach,
Julia Kreutzer
摘要
本文全面分析了LLM安全研究的语言多样性,强调了该领域以英语为中心的特点。通过系统性地审查了2020年至2024年间在*ACL主要NLP会议和研讨会上发表的近300篇出版物,我们发现LLM安全研究中存在一个显著且日益扩大的语言鸿沟,即使是高资源量的非英语语言也只获得了极少的关注。我们进一步观察到,非英语语言很少作为独立的语言进行研究,并且英语安全研究在语言文档实践方面表现不佳。为了促进未来对多语言安全的研究,我们根据我们的调查提出了一些建议,然后提出了三个具体的未来研究方向:安全评估、训练数据生成和跨语言安全泛化。基于我们的调查和提出的方向,该领域可以为全球不同人群开发更健壮、更具包容性的人工智能安全实践。
多语言安全培训/评估现已成为标准做法,但一个关键问题依然存在:多语言安全问题真的解决了吗?
我们的新调查回答了这个问题,并深入探讨了:
安全研究中的语言鸿沟
未来优先领域