人类期望大型语言模型对手在策略游戏中表现出理性和合作

发表
ii 提交
作者: Darija Barak, Miguel Costa-Gomes

摘要

随着大型语言模型(LLMs)融入我们的社会和经济互动,我们需要加深对人类在策略性情境中如何回应LLM对手的理解。我们展示了首次受控的、有金钱奖励的实验室实验结果,该实验旨在观察在多玩家 p-beauty contest 中,人类对抗其他人类和LLMs时的行为差异。我们使用被试内设计(within-subject design),以便在个体层面比较行为。我们发现,在这种环境中,人类受试者在对抗LLMs时选择的数字显著低于对抗人类时,这主要是由于选择“零”纳什均衡策略的比例增加所致。这种转变主要由具有高策略推理能力的受试者驱动。选择零纳什均衡策略的受试者解释其策略时,提到了他们感知的LLM的推理能力,以及出乎意料的,LLM倾向于合作的特性。我们的研究结果为同步选择博弈中的多人人-LLM互动提供了基础性见解,揭示了受试者行为以及他们对抗LLM时对LLM表现的信念中的异质性,并对混合人-LLM系统中的机制设计提出了重要启示。
查看 arXiv 页面查看 PDF

评论

ii
论文提交者

结果表明,人类,尤其是那些具有高战略推理能力的人,在与大型语言模型(LLMs)进行 p 猜均值博弈时,相比于人类对手,会选择更小的数字,并期望它们表现出更理性和合作的行为。