FedSVD: 结合LoRA用于隐私联邦学习的自适应正交化

发表
Sangwoo ParkSangwoo Park 提交
作者: Seanie LeeSeanie Lee, Sangwoo ParkSangwoo Park, Dong-Bok LeeDong Bok Lee, Dominik WagnerDominik Wagner, Haebin SeongHaebin Seong, Tobias Bocklet, Juho Lee, Sung Ju Hwang

摘要

低秩适应 (LoRA) 将两个可训练的低秩矩阵的乘积引入冻结的预训练权重中,广泛应用于联邦学习 (FL) 中语言模型的有效微调。然而,当与差分隐私随机梯度下降 (DP-SGD) 结合时,LoRA 面临着显著的噪声放大:DP-SGD 扰动每个样本的梯度,而 LoRA 更新 (BA) 的矩阵乘法则加剧了这种效应。冻结其中一个矩阵(例如 A)可以减少噪声,但会限制模型表达能力,通常导致次优适应。为了解决这个问题,我们提出了 FedSVD,这是一种基于奇异值分解 (SVD) 引入全局重参数化的简单而有效的方法。在我们的方法中,每个客户端只优化矩阵 B 并将其传输到服务器。服务器聚合矩阵 B,使用先前的 A 计算乘积 BA,并通过 SVD 对结果进行重新分解。这产生了新的自适应矩阵 A,由 BA 的正交右奇异向量组成,以及更新的矩阵 B,其中包含剩余的 SVD 分量。这种重参数化避免了二次噪声放大,同时允许 A 更好地捕捉聚合更新的主方向。此外,A 的正交结构限制了 B 的梯度范数,并在 DP-SGD 下保留了更多信号,这已通过我们的理论分析得到证实。因此,FedSVD 在各种隐私设置和基准测试中始终提高了稳定性和性能,在隐私和非隐私制度下都优于相关基线。
查看 arXiv 页面查看 PDF

评论

Seanie LeeSeanie Lee
论文作者

image.png

Sangwoo ParkSangwoo Park
论文作者
论文提交者

我们提出了 FedSVD,这是一种简单而有效的方法,它为差分隐私(DP)联邦学习(FL)引入了基于奇异值分解(SVD)的全局重新参数化。