解耦理解与引导式思维链推理的有害模因检测方法

发表
Xiaobao WuXiaobao Wu 提交
作者: Fengjun Pan, Anh Tuan Luu, Xiaobao WuXiaobao Wu

摘要

检测有害模因对于维护在线环境的完整性至关重要。然而,当前的方法在资源效率、灵活性或可解释性方面常常面临挑战,这限制了它们在内容审核系统中的实际部署。为应对这些挑战,我们引入了 U-CoT+,一个用于有害模因检测的新颖框架。U-CoT+不单纯依赖于提示或微调多模态模型,而是首先开发了一个高保真度的“模因到文本”管道,该管道能将视觉模因转换为保留细节的文本描述。这种设计将模因解释与模因分类解耦,从而避免了对复杂的原始视觉内容进行即时推理,并使得使用通用大型语言模型(LLM)进行资源高效的有害模因检测成为可能。在此文本描述的基础上,我们进一步整合了有针对性、可解释的人工制定指南,以在零样本 CoT 提示下指导模型的推理。因此,该框架可以轻松适应跨平台、跨区域和随时间变化的有害性检测标准,提供了高灵活性和可解释性。在七个基准数据集上进行的广泛实验验证了我们框架的有效性,突显了其在使用小型LLM进行可解释、低资源有害模因检测方面的潜力。代码和数据可在以下网址获取:https://anonymous.4open.science/r/HMC-AF2B/README.md
查看 arXiv 页面查看 PDF

评论

Xiaobao WuXiaobao Wu
论文作者
论文提交者

检测有害模因对于维护在线环境的完整性至关重要。然而,当前的方法在资源效率、灵活性或可解释性方面常常面临挑战,这限制了它们在内容审核系统中的实际部署。为了应对这些挑战,我们引入了U-CoT+,一个用于有害模因检测的新颖框架。我们不单纯依赖提示或微调多模态模型,而是首先开发了一个高保真模因到文本的管道,将视觉模因转换为保留细节的文本描述。这种设计将模因解释与模因分类解耦,从而避免了对复杂的原始视觉内容进行即时推理,并能够使用通用大型语言模型(LLM)进行资源高效的有害模因检测。基于这些文本描述,我们进一步整合了有针对性、可解释的人工制定指南,以在零样本CoT提示下指导模型的推理。因此,该框架易于适应不同平台、区域和不同时期下的有害性检测标准,提供了高灵活性和可解释性。在七个基准数据集上进行的广泛实验验证了我们框架的有效性,突出了其利用小型LLM进行可解释和低资源有害模因检测的潜力。