⏶2
AI Wizards at CheckThat! 2025:融合情感信息以增强基于 Transformer 的嵌入,用于新闻文章中的主观性检测
发表
由
MatteoFasulo 提交

作者:
Matteo Fasulo,
Luca Babboni,
Luca Tedeschini


摘要
本文介绍了 AI Wizards 团队参加 CLEF 2025 CheckThat! 评测任务 1(新闻文章中的主观性检测)的情况,该任务要求在单语、多语和零样本(zero-shot)设置下将句子分类为主观句或客观句。任务方为阿拉伯语、德语、英语、意大利语和保加利亚语提供了训练/开发数据集;最终评估则包含了额外未曾见过的语言(如希腊语、罗马尼亚语、波兰语、乌克兰语),以评估模型的泛化能力。我们的主要策略是通过将一个辅助模型提取的情感分数与句子表示相结合,来增强基于 Transformer 的分类器,旨在改进标准的微调方法。我们使用 mDeBERTaV3-base、ModernBERT-base(英语)和 Llama3.2-1B 模型探索了这种情感增强架构。为解决各种语言中普遍存在的类别不平衡问题,我们采用了在开发集上优化的决策阈值校准方法。我们的实验表明,集成情感特征显著提升了模型性能,尤其是在主观类 F1 分数上。该框架帮助我们取得了优异的排名,尤其是在希腊语上排名第一(宏 F1 分数为 0.51)。
AI Wizards — “通过情感增强基于Transformer的嵌入,用于新闻文章中的主观性检测”
arXiv:2507.11764 | GitHub: MatteoFasulo/clef2025-checkthat
公告:
我们很高兴介绍我们在CLEF 2025 CheckThat! Lab (任务1) 的最新工作。本文概述了一个新颖的框架,用于将新闻文章中的句子分类为主观或客观,通过将情感特征集成到Transformer嵌入中。
我们的方法利用mDeBERTa v3、ModernBERT和LLaMA 3.2-1B在单语(阿拉伯语、德语、英语、意大利语、保加利亚语)、多语和零样本(希腊语、波兰语、罗马尼亚语、乌克兰语)设置中,通过情感分析模型的情感分数增强了上下文嵌入。这种增强,结合经过校准的决策阈值以解决数据集不平衡问题,持续改进了性能——尤其是在主观类别上。
主要成果包括在希腊语零样本赛道中获得最高排名,并改进了英语和意大利语的SUBJ F1分数。
完整的代码库和数据集已公开可用。
查找方式:
📄 论文: https://arxiv.org/abs/2507.11764
💻 代码与演示: https://github.com/MatteoFasulo/clef2025-checkthat
📂 数据集: https://gitlab.com/checkthat_lab/clef2025-checkthat-lab/-/tree/main/task1/data