⏶3
DiffSeg30k: 用于局部AIGC检测的多轮扩散编辑基准
发表
由
Hai Ci 提交
作者: Hai Ci, Ziheng Peng, Pei Yang, Yingxin Xuan, Mike Zheng Shou
摘要
AI 生成总结
DiffSeg30k 是一个包含 3 万张扩散编辑图像的数据集,通过语义分割支持对 AI 生成内容的细粒度检测。基于扩散的编辑能够对局部图像区域进行逼真修改,使得人工智能生成内容更难被检测。现有的人工智能生成内容(AIGC)检测基准侧重于对整个图像进行分类,而忽略了基于扩散的编辑的定位。我们引入了 DiffSeg30k,一个包含 3 万张经过扩散编辑的图像并带有像素级注释的公开数据集,旨在支持细粒度检测。DiffSeg30k 的特点是:1) 野外图像——我们从 COCO 收集图像或图像提示以反映真实世界内容的多样性;2) 多样化的扩散模型——使用八个 SOTA 扩散模型进行局部编辑;3) 多轮编辑——每张图像都经过多达三次顺序编辑,以模拟真实世界的顺序编辑;4) 逼真的编辑场景——基于视觉语言模型 (VLM) 的管道自动识别有意义的区域并生成上下文感知提示,涵盖添加、删除和属性更改。DiffSeg30k 将 AIGC 检测从二元分类转变为语义分割,从而能够同时定位编辑并识别编辑模型。我们对三种基线分割方法进行了基准测试,揭示了语义分割任务中的重大挑战,特别是图像失真鲁棒性方面。实验还表明,分割模型尽管经过像素级定位训练,但作为扩散编辑的高度可靠的整图像分类器而出现,其性能优于已建立的伪造分类器,并在跨生成器泛化方面显示出巨大潜力。我们相信 DiffSeg30k 将通过展示基于分割方法的潜力与局限性,推进人工智能生成内容的细粒度定位研究。DiffSeg30k 发布于:https://huggingface.co/datasets/Chaos2629/Diffseg30k
来自 8 个扩散模型的 3 万张编辑图像,最多 3 轮编辑,带有像素级精确蒙版,用于精细 AIGC 定位 + 归因。
数据集:https://huggingface.co/datasets/Chaos2629/Diffseg30k