⏶8
HarmonyGuard:通过自适应策略增强和双目标优化实现Web代理的安全与实用
发表
由
Xavier Hu 提交
作者:
Yurun Chen, Xavier Hu, Yuhan Liu, Keting Yin, Juncheng Li, Zhuosheng Zhang, Shengyu Zhang
摘要
大型语言模型使智能体能够在开放网络环境中自主执行任务。然而,随着网络中隐藏威胁的演变,网络智能体在长序列操作中面临着平衡任务性能与新兴风险的挑战。尽管这一挑战至关重要,但当前研究仍限于单目标优化或单轮场景,缺乏在网络环境中协同优化安全性和效用的能力。为了解决这一差距,我们提出了 HarmonyGuard,一个多智能体协作框架,它利用策略增强和目标优化来共同提高效用和安全性。HarmonyGuard 具有一个多智能体架构,其特点是两个基本能力:(1) 自适应策略增强:我们在 HarmonyGuard 中引入了策略智能体,它能自动从非结构化外部文档中提取和维护结构化安全策略,同时根据不断演变的威胁持续更新策略。(2) 双目标优化:基于安全性和效用的双重目标,HarmonyGuard 中集成的效用智能体执行马尔可夫实时推理来评估目标,并利用元认知能力对其进行优化。在多个基准上的广泛评估表明,HarmonyGuard 比现有基线将策略合规性提高了多达 38%,将任务完成率提高了多达 20%,同时在所有任务中实现了超过 90% 的策略合规性。我们的项目可在此处获得:https://github.com/YurunChen/HarmonyGuard。
我们提出了 HarmonyGuard,一个多智能体协作框架,旨在解决在动态开放环境中联合优化基于LLM(大型语言模型)的网页智能体的安全性和效用这一关键挑战。认识到先前工作侧重于单目标优化或单轮场景的局限性,HarmonyGuard 引入了两项关键创新:(1) 策略智能体通过自适应增强机制(例如,语义相似性过滤和分层有界队列)动态提取、构建和更新安全策略,以及 (2) 效用智能体采用二阶马尔可夫评估策略和元认知能力,以实现安全性(策略合规性)和效用(任务对齐)之间的实时权衡优化。
我们的代码可在此处获取:github.com/YurunChen/HarmonyGuard