⏶24
IntrEx:一个用于模拟教育对话参与度的数据集
发表
由
Xingwei Tan 提交
作者:
Xingwei Tan, Mahathi Parvatham, Chiara Gambi, Gabriele Pergola
摘要
AI 生成总结
IntrEx 是一个针对教育对话中“趣味性”进行标注的大型数据集,研究表明,经过微调的 LLM 能够比大型专有模型更好地预测人类对趣味性的判断,这突出了语言和认知因素在参与度中的作用。学习第二语言,参与度和积极性至关重要,然而在教育对话中保持学习者的兴趣仍然是一个挑战。虽然以往的研究已经探讨了什么能使教育文本有趣,但对于推动对话参与度的语言特征知之甚少。为了弥补这一不足,我们引入了 IntrEx,这是第一个针对师生互动中的趣味性和预期趣味性进行标注的大型数据集。IntrEx 以“师生聊天室语料库”(TSCC)为基础,通过纳入序列级别的标注,扩展了以往的研究,从而能够研究超出孤立回合的参与度,以捕捉兴趣在延长的对话中如何演变。我们采用了一个严格的标注过程,涉及 100 多名第二语言学习者,并借鉴了基于人类反馈的强化学习(RLHF)的比较评分方法来提高一致性。我们研究大型语言模型(LLM)是否可以预测人类趣味性判断。我们发现,在趣味性评分上进行微调的 LLM(7B/8B 参数)优于 GPT-4o 等较大的专有模型,这证明了专业数据集在模拟教育场景中的参与度方面的潜力。最后,我们分析了具体性、可理解性(可读性)和理解度等语言和认知因素如何影响教育对话中的参与度。
我们的论文发布了第一个关于教育对话中趣味性和预期趣味性的数据集。我们研究了语言和认知特征(具体性、可理解性、信息吸收等)如何成为趣味性的预测因子,并尝试使用这些数据作为奖励模型的训练信号。#EMNLP2025