多语言LLM安全研究现状:从衡量语言鸿沟到弥合它

发表
Yong Zheng-XinYong Zheng-Xin 提交
作者: Zheng-Xin Yong, Beyza Ermis, Marzieh Fadaee, Stephen H. Bach, Julia KreutzerJulia Kreutzer

摘要

本文全面分析了LLM安全研究的语言多样性,强调了该领域以英语为中心的特点。通过系统性地审查了2020年至2024年间在*ACL主要NLP会议和研讨会上发表的近300篇出版物,我们发现LLM安全研究中存在一个显著且日益扩大的语言鸿沟,即使是高资源量的非英语语言也只获得了极少的关注。我们进一步观察到,非英语语言很少作为独立的语言进行研究,并且英语安全研究在语言文档实践方面表现不佳。为了促进未来对多语言安全的研究,我们根据我们的调查提出了一些建议,然后提出了三个具体的未来研究方向:安全评估、训练数据生成和跨语言安全泛化。基于我们的调查和提出的方向,该领域可以为全球不同人群开发更健壮、更具包容性的人工智能安全实践。
查看 arXiv 页面查看 PDF

评论

Yong Zheng-XinYong Zheng-Xin
论文提交者

多语言安全培训/评估现已成为标准做法,但一个关键问题依然存在:多语言安全问题真的解决了吗?

我们的新调查回答了这个问题,并深入探讨了:

  • 安全研究中的语言鸿沟

  • 未来优先领域